profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2012), also from March - year 2013.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Czynniki ograniczające przepustowość w sieciach standardu 802.11 (Antoni Masiukiewicz, IWONA Dolińska)
Bezprzewodowe sieci pracujące zgodnie ze standardem 802.11, nazywane sieciami WiFi lub WLAN, zostały wdrożone do eksploatacji w latach 90. Ewolucja sieci WiFi spowodowała, że obecnie współistnieją cztery wersje standardu 802.11 oznaczone literami a/b/g/n, z których powszechnie są wykorzystywane dwie ostatnie. W 2013 r. przewidywane jest końcowe uzgodnienie i ratyfikowanie wersji 802.11ac [1,4]. Podstawowym celem opracowania kolejnych wersji standardu 802.11 było sukcesywne zwiększanie przepustowości sieci. W ciągu dwóch dekad ich wartości wzrosły od 1 Mbit/s do kilkuset Mbit/s. Przewidywana przepustowość w standardzie 802.11ac ma przekroczyć granicę 1 Gbit/s [1]. Osiągniecie tak wysokich poziomów przepustowości wiąże się oczywiście z koniecznością wprowadzenia nowych, ale też poprawy aktualnie stosowanych rozwiązań technologicznych. Chodzi tutaj przede wszystkim o technologię MIMO (Multiple Input Multiple Output), pozwalającą na obsługę wielu przestrzennych strumieni danych przez jedno urządzenie [1, 2, 7, 8]. W standardzie 802.11ac przewidywana jest możliwość jednoczesnej transmisji przy wykorzystaniu 8 strumieni danych (8xMIMO), przy czym dopuszcza się zarówno komunikację z użytkownikami wykorzystującymi technologię SISO (Single Input Single Output), jak i MIMO. Następnym czynnikiem poprawiającym przepustowość jest zastosowanie kanałów radiowych o większej szerokości. Początkowo były to kanały o szerokości 20 MHz (802.11 a/b/g), później 40 MHz (802.11n), a obecnie 80 i 160 MHz (802.11 ac). Wprowadzane są też nowe schematy modulacji MCS (Modulation Code Scheme) o wyższych współczynnikach (M=256 dla QAM- 802.11 ac). Na rys. 1 pokazano obszar przepustowości dostępnych dla standardu 802.11ac. W zależności od doboru parametrów połączenia, projektowana przepustowość systemu może zmieniać się od 6,5 Mbit/s, dla kanału o szerokości 20 MHz, niskich schematów modulacji i transmisji o charakterze SISO, do 7 Gbit/s dla kanału o szer... więcej»

Wykorzystanie sterownika PLC do sterowania pracą hybrydowego systemu zasilania energią cieplną (Paweł Obstawski)
Niska gęstość energii pochodzącej ze źródeł odnawialnych oraz stochastyczny charakter nośników zarówno pierwotnych jak i wtórnych tej energii może przyczynić się do niestabilnej pracy systemu zasilania. W celu zapewnienia stabilności i ciągłości dostaw energii systemy energetyczne bazujące na odnawialnych źródłach energii uzupełnia się źródłami konwencjonalnymi tworząc hybrydowe systemy zasilania. Hybrydowe systemy zasilania przetwarzając konwencjonalne nośniki energii oraz nośniki energii odnawialnej wytwarzać energię elektryczną PV - elektrownia wodna, elektrownia wiatrowa - elektrownia wodna) lub energię cieplną (segment słoneczny - kocioł gazowy), przy czym mogą być analizowane w skali makro (energetyka zawodowa) oraz w skali mikro (odbiorca indywidualny). Ze względu na fakt, iż system hybrydowy zbudowany jest z kilku niezależnych segmentów współpracujących ze sobą w celu zapewnienia poprawnej pracy systemu jako całości należy dokonać optymalizacji jego pracy. Optymalizacji pracy hybrydowego systemu zasilania można próbować dokonać już na etapie projektowym określając rozmiary poszczególnych segmentów systemu, kierując się względami ekonomicznymi. Do symulacji prasy systemu, oszacowania oczekiwanych uzysków energetycznych oraz kosztów inwestycji wykorzystywane są liniowe aparaty matematyczne, sztuczne sieci neuronowe bądź algorytmy genetyczne. Jednakże w warunkach eksploatacyjnych praca systemu hybrydowego może odbiegać od symulowanej na etapie projektowym. Wówczas optymalizacji pracy systemu hybrydowego można dokonać poprzez opracowanie i wdrożenie odpowiedniego algorytmu sterowania zaimplementowanego w swobodnie programowalnym sterowniku PLC [2, 7]. Ze względu na, modułową budowę, duże możliwości techniczne, możliwość implementacji algorytmu regulacji wygenerowanego w kodzie C współpracę z oprogramowaniem technicznym np.: Matlab sterowniki PLC świetnie nadają się do sterowania pracą hybrydowych systemów energetycznych.... więcej»

Paths of the heat flow from semiconductor devices to the surrounding (Drogi przepływu ciepła wydzielanego w elementach półprzewodnikowych do otoczenia) (Krzysztof Górecki, Janusz Zarębski)
One of the main problems restricting the development of the microelectronics is efficient abstraction of the heat generated in the semiconductor structure to the environment [1]. The limited efficiency of practical cooling systems causes that the internal temperature of semiconductor devices increases, attaining often the values considerably differing from the ambient temperature. The device internal temperature rise is a basic factor worsening the reliability of electronic elements and circuits comprising these elements [2]. Therefore, it is so important to develop efficient methods of cooling devices and electronic circuits. Producers of semiconductor devices aim at reducing the thermal resistance between the semiconductor structure and the device case [3]. Therefore, new constructions of cases of semiconductor devices are proposed by producers. For example, in the paper [4] one paid attention to the fact that the admissible value of the temperature of the interior of the low-voltage semiconductor device is limited by the materials applied to the construction of the device case, particularly leadrich solder alloys. The main task of the classical device package is to protect it from corrosion and mechanical hazards and it has to guarantee the possible low value of the thermal resistance between the semiconductor chip and the case surface of the device, typically having an element which makes it possible to join external elements of the heat removing path. Cases of devices have different constructions depending, among others, on the semiconductor chip size, the manner of the device setting-up and the power dissipated into the device. The construction of the case of semiconductor devices is very important, but seldom it has a decisive meaning in the global thermal resistance between the chip structure and the environment. Depending on the applied system of the device cooling it is necessary to take into account thermal propriet... więcej»

Implementacja wzmacniacza fazoczułego na specjalistycznej karcie przetworników analogowo-cyfrowych NI PCI-4461 (Łukasz CHROBAK)
Wzmacniacz fazoczuły jest powszechnie znany pod nazwą Lock-In. Stosowany jest do pomiarów słabych sygnałów periodycznych zatopionych w szumie, czyli dla sygnałów, dla których stosunek sygnału do szumu jest znacznie mniejszy od jedności. Implementacja wzmacniacza fazoczułego na procesorze sygnałowym została omówiona w pracy [1]. Programowa realizacja wzmacniacza lock-in wykorzystana do pomiarów pojemności została przedstawiona w pracy [2]. Programowe symulacje wzmacniacza tego typu omówiono w pracy [3]. Implementacja programowa wielokanałowego wzmacniacza lock-in została zaprezentowana w pracy [4]. Realizacja wzmacniacza fazoczułego na bazie mikrokontrolera została przedstawiona w pracy [5]. W artykule tym przedstawiono szczegóły dotyczące implementacji programowej wzmacniacza fazoczułego na karcie przetworników NI PCI-4461. Schemat blokowy typowego dwukanałowego wzmacniacza fazoczułego został przedstawiony na rysunku poniżej. Podstawą działania wzmacniacza jest detekcja fazoczuła. Do wzmacniacza fozoczułego podawany jest mierzony sygnał oraz sygnał referencyjny, który następnie przekazywany jest do generatora wewnętrznego. W pierwszym kroku sygnał mierzony poddawany jest wzmocnieniu. W kolejnym kroku w każdym z kanałów generowane są dwa ortogonalne sygnały referencyjne o częstotliwości odpowiadającej częstotliwości podanego do wzmacniacza sygnału referencyjnego. Następnie w każdym z kanałów następuje modulacja sygnału wejściowego sygnałem referencyjnym. Sygnały reprezentujące komponenty sygnału w dwóch ortogonalnych fazach odniesienia podawane są na filtry dolnoprzepustowe. Z otrzymanych składowych uzyskiwana jest Elektronika 12/2012 107 poszukiwana wartość amplitudy i fazy na zadanej częstotli... więcej»

Porównanie intensywności kawitacji w temperaturach 50 i 60°C roztworów wybranych soli przy częstotliwościach ultradźwięków 26 i 38 kHz (Bogdan Niemczewski )
Oczyszczanie ultradźwiękowe w roztworach wodnych prowadzi się najczęściej stosując, ze względu na reakcje chemiczne roztworów z zanieczyszczeniami, substancje alkaliczne lub kwasy. Czasami jednak rodzaj usuwanych zanieczyszczeń powoduje, że bardziej efektywne są inne środki oczyszczające, na przykład utleniacze, reduktory lub same tylko środki powierzchniowo czynne a nawet, z powodu wysokiej intensywności kawitacji, woda bez żadnych dodatków. Woda bowiem, jak to uznawano dotychczas, jest cieczą zdolną kawitować najintensywniej, przy czym temperatura jej maksymalnej kawitacji wynosi 35ºC [1, 2]. Publikacje autora z ostatnich lat dowodzą jednak, że przy zastosowaniu ultradźwięków o częstotliwości 34…39 kHz i wysokiej mocy, roztwory niektórych substancji alkalicznych kawitują, zwłaszcza w podwyższonych temperaturach, intensywniej niż woda. Fakt ten stwierdzono dla roztworów 1…2-procentowych Na3PO4 przy częstotliwości 34 kHz, a przy częstotliwości 38 kHz również dla licznych innych roztworów substancji alkalicznych [3-5]. Powstaje pytanie, czy jest to cechą wyłącznie substancji o odczynie alkalicznym, czy też odczyn nie ma tu istotnego znaczenia. Jeżeli również niektóre inne sole zdolne byłyby w pewnych warunkach podwyższać intensywność kawitacji, to można byłoby je wykorzystywać do maksymalizacji intensywności kawitacji, a tym samym maksymalizacji efektywności oczyszczania ultradźwiękowego. Przedmiotem pracy zreferowanej w niniejszym artykule jest próba porównania wpływu na intensywność kawitacji dodatku do wody różnych soli nieorganicznych. Przyjęto 3-procentowe stężenia nadźwiękawianych roztworów, ponieważ jak wykazały wcześniejsze badania, przy tej zawartości soli w roztworze wpływ stężenia na spadek intensywności kawitacji jest jeszcze stosunkowo niewielki [4]. 35 użytych do prób soli przy częstotliwości 26 kHz i 23 przy częstotliwości 38 kHz oczywiście daleko nie wyczerpuje palety rozpuszczalnych w wodzie... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Pomiar czułości włókien mikrostruturalnych przy wykorzystaniu interferometru Macha-Zehndera (Michał Murawski, Michał Szymański, Zbigniew Hołdyński, Tadeusz Tenderenda, Łukasz Ostrowski, Katarzyna Pawlik, Ariel Łukowski, Henryk Krisch, Paweł Marć, Leszek R. Jaroszewicz, Tomasz Nasiłowski)
Unikalne właściwości światłowodów mikrostrukturalnych (MSF lub fotonicznych PCF), takie jak: nieskończona jednomodowa praca [1], niezwykłe właściwości dyspersyjne [2-5], bardzo duża średnica pola modu [6], wysoka dwójłomność [7] itd. Właściwości te wynikają z geometrycznego prowadzenia światła w światłowodzie. Zasadniczo PCFy zbudowane są z jednego materiału oraz z macierzy otworów powietrznych na całej długości włókna światłowodowego. Włókna takie maja szereg zalet w porównaniu do standardowych włókien światłowodowych (takich jak np. SMF- 28). Największą zaletą takich włókien jest obniżona czułość na temperaturę takiego włókna. Wynika ona z braku naprężeń termicznych występujących pomiędzy rdzeniem (domieszkowanym Ge), a płaszczem włókna światłowodowego. Właściwość ta była naszą motywacją do wykorzystania włókien MSF(PCF) jako ramię czujnikowe w światłowodowym interferometrze Macha-Zhendera. MSF i PCF były rozważane jako elementy czujnikowe przez ostatnich parę lat ze względu na ich niezwyczajne właściwości i teoretycznie niższą czułością temperaturową. Włókna te były wykorzystywane w różnych układach czujnikowych [7-8]. Jednakże według naszej wiedzy nie istnieją publikacje opisujące czujnikowe aplikacje światłowodowych interferometrów Macha-Zhendera na włóknach MSF do pomiarów rozciągania, zginania, ciśnienia statycznego i dynamicznego etc. Wiele publikacja pokazuje nieczułe temperaturowo interferometryczne czujniki światłowodowe oparte o konfiguracje interferometru Sagnaca (lub Fiber Loop Mirror) [8-10] gdzie do pomiarów zastosowane są źródła o szerokim zakresie spektralnym oraz optyczny analizator widmowy, które są elementami drogimi. Należy pamiętać że interferometr Sagnaca jest często ograniczony warunkami polaryzacji (zastosowanie włókien trzymających polaryzację). Kolejnym przykładem wykorzystania włókien MSF jest interferometr dwu-modowy [11-13] który może być wykorzystany jako sprzęgacz między modowy, selektywny fi... więcej»

Automatyczny pomiar pojemności złączowej półprzewodnikowego złącza p-n (Ireneusz Brzozowski, Szymon Wawszczak, Piotr Bratek, Andrzej Kos)
Pojemność złączowa (barierowa) jest jednym z ważniejszych parametrów diod półprzewodnikowych, a zwłaszcza w przypadku zastosowania w układach dużej częstotliwości. Pojemność złączowa jako główny parametr zaporowo spolaryzowanego złącza ma również znaczny udział w przypadku poboru energii w układach scalonych [1]. W wielu przypadkach sposobność szybkiego i możliwie dokładnego pomiaru tej pojemności jest nieoceniona. W przypadku warikapów i waraktorów jest to najważniejszy parametr. Co więcej, możliwość uzyskania charakterystyki pojemnościowo- napięciowej może być także bardzo cenna. Ponadto, oprócz wartości pojemności dla konkretnych napięć polaryzujących diodę taka charakterystyka pozwala na wyznaczenie innych ważnych parametrów złącza, np. potencjału barierowego czy profilu domieszkowania. W artykule przedstawiono stanowisko pomiarowe umożliwiające automatyczne wyznaczanie charakterystyk pojemnościowo- napięciowych złączy półprzewodnikowych i na tej podstawie ekstrakcję niektórych parametrów diod. Stanowisko składa się ze specjalnego układu pomiarowego oraz oprzyrządowania kontrolno- pomiarowego, które jest sterowane za pomocą aplikacji napisanej w środowisku LabVIEW, przez magistralę GPIB. W dedykowanym module pomiarowym zastosowano metodę rezonansową pomiaru pojemności. Wybór metody pomiarowej Z pośród wielu metod pomiaru pojemności kondensatorów można wymienić techniczną, mostkową, rezonansową i inne. Nie wszystkie z nich nadają się do zastosowania w przypadku pomiaru pojemności złączowej diody. Niektóre z nich wymagają dobrej liniowości elementu, dużej dobroci lub stałości napięcia do niego przyłożonego [2]. Tymczasem dioda półprzewodnikowa to element nieliniowy, a więc jej parametry zmieniają się wraz z napięciem polaryzującym. W szczególności pojemność złączowa, ale również rezystancja szeregowa, dobroć itd. W związku z tym dla uzyskania dobrej dokładności pomiarów należy zapewnić małą amplitudę składowej zmiennej n... więcej»

Światłowody mPOF do zastosowań telekomunikacyjnych (Paweł Gdula, Katrin Welikow, Ryszard Buczyński, Paweł Szczepański, Ryszard Piramidowicz)
Dynamiczny rozwój technologii informacyjnych i telekomunikacyjnych, obserwowany w ostatnich latach doprowadził do znaczących zmian w sieciach telekomunikacyjnych, wymuszając ich ewolucję w kierunku transparentnych, w pełni optycznych systemów. W sieciach dostępowych, stanowiących najniższą warstwę systemów telekomunikacyjnych, włókna optyczne systematycznie wypierają rozwiązania miedziane, pozwalając na radykalne zwiększenie przepustowości i niezawodności przy jednoczesnej redukcji kosztów. Należy jednak podkreślić, że o ile w przypadku sieci dalekiego zasięgu i metropolitalnych nie ma alternatywy dla włókien jednomodowych, to specyficzne wymagania nakładane przez sieci dostępowe, a w szczególności systemy wewnątrz-budynkowe sprawiają, że włókna dla tych sieci stanowią przedmiot intensywnych badań i analiz, prowadzonych zarówno w jednostkach R&D największych operatorów i producentów włókien jak też wiodących ośrodków naukowych. W sytuacji, kiedy istotną rolę zaczynają odgrywać straty mikro- i makro-zgięciowe, problemy odporności mechanicznej, łatwości rekonfigurowania połączeń, koszty instalacji i utrzymania sieci, czy wreszcie aspekty bezpieczeństwa, coraz częściej rozważa się zastosowanie światłowodów wielomodowych czy plastikowych o dużym rdzeniu [1,2].Te ostatnie, oferujące dużą elastyczność równocześnie z niskim kosztem produkcji i prostotą obróbki wydają się być szczególnie obiecujące w kontekście sieci dostępowych, a przede wszystkim systemów Fiber To The Home (FTTH). Światłowody polimerowe zapewniają również większe bezpieczeństwo użytkownikom w przypadku przerwania ciągłości włókna - nie łamią się tak jak włókna szklane, które pozostawiają drobne, ostre odłamki. Ponadto, pracują w zakresie bezpiecznej dla oczu części widma optycznego, przypadającej zwykle na obszar czerwieni [3]. Głównymi czynnikami ograniczającymi powszechne wdrożenie włókien polimerowych w systemach transmisyjnych są stosunkowo duże tłumienie oraz,... więcej»

Technologia wytwarzania i pomiary absorpcji szkieł chalkogenidkowych domieszkowanych jonami ziem rzadkich (Łukasz Sójka, Elżbieta Bereś-Pawlik, Zhuogi Tang, David Furniss, Angela Beth Seddon, Trevor Mark Benson, Sławomir Sujecki)
Jednym z podstawowych problemów współczesnej fotoniki jest opracowanie efektywnych źródeł światła pracujących w zakresie średniej podczerwieni. Potencjalne źródła światła pracujące w tym zakresie mogą znaleźć wiele zastosowanie w branży medycznej oraz czujnikowej. Źródła pracujące w tym zakresie powinny się charakteryzować prostą konstrukcją, wysoką efektywnością, niezawodnością, przystępną ceną, dobrą jakością wiązki wyjściowej. Jednym z urządzeń, które spełniają te wymagania są lasery światłowodowe [1-3]. Sygnały generowane przez obecnie lasery światłowodowe oparte na szkle krzemionkowym oraz fluorkowym mogą pokryć zakres długości fali do około 3 μm. Barierą technologiczną która blokuje konstrukcje laserów światłowodowych powyżej 3 μm jest wysoka energia fononów szkła krzemionkowego (1100 cm-1) oraz szkła fluorkowego (560 cm-1) [4, 5]. W celu osiągnięcia emisji powyżej 3 μm potrzebne jest szkło charakteryzujące się niską energią fononów. Jednym z materiałów który może spełnić to wymaganie jest szkło chalkogenidkowe. Szkła te charakteryzują się niską energią fononów poniżej 400 cm-1 co predysponuje je do osiągnięcia emisji powyżej 3 μm [6-9]. Szkła chalkogenidkowe są to szkła oparte na materiałach z 16 grupy układu okresowego pierwiastków tj. S (siarka), Se (Selen) oraz Te (Tellur), elementy te wraz z elementami z 14 oraz 15 grupy układu okresowego tj Ge (German), As (Arsen), Sb (Antymon), Ga (Gal) two... więcej»

Światłowodowy czujnik siły bazujący na interferometrze Sagnaca z dwójłomnym światłowodem fotonicznym (Cezary Kaczmarek)
Interferometr Sagnaca zawierający odcinek światłowodu dwójłomnego ma wiele właściwości, które czynią go podzespołem o szerokim zastosowaniu zarówno w telekomunikacji jak i w sensoryce światłowodowej. Jedną z tych właściwości jest niezależność od polaryzacji wejściowej wiązki światła. Inną jest periodyczność widma wiązki wyjściowej i odbitej interferometru, którego okres zależy od długości odcinka światłowodu dwójłomnego, a nie od długości pętli. Interferometr Sagnaca ze światłowodem dwójłomnym jest wykorzystywany w telekomunikacji optycznej jako filtr WDM [1]. W sensoryce podzespół ten ma zastosowanie jako czujnik wielu wielkości fizycznych i chemicznych [2, 3] oraz jako dyskryminator długości fali dla czujników z siatkami Bragga [4]. Zastosowanie w interferometrze Sagnaca dwójłomnego światłowodu fotonicznego zamiast konwencjonalnego światłowodu dwójłomnego, radykalnie poprawia parametry metrologiczne i użytkowe tego podzespołu. Ta poprawa wynika z właściwości dwójłomnych światłowodów fotonicznich, głównie bardzo małego wpływu zmian temperatury i znacząco większej dwójłomności modowej w porównaniu z konwencjonalnymi światłowodami dwójłomnymi. Dla interferometru ze światłowodem dwójłomnym produkowanego przez Blaze-Photonics zmiany okresu widma pod wpływem zmian temperatury wynoszą 0,05 pm/K, natomiast przesunięcie widma pod wpływem zmian temperatury wynosi 0,25...0,3 pm/K [5, 6]. Duża wartość dwójłomności światłowodów fotonicznych pozwala znacząco zredukować ich wymaganą długość w czujnikach z interferometrem Sagnaca. W artykule przedstawiono czujnik siły o zakresie 0...50 N, w układzie interferometru Sagnaca z dwójłomnym światłowodem fotonicznym typu PM-1550-01 wyprodukowanym przez Blaze... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Długofalowe fotodiody z HgCdTe pracujące w temperaturach bliskich pokojowej (Paweł Madejczyk, Waldemar Gawron, Piotr Martyniuk, Andrzej Kowalewski, Jarosław Pawluczyk, Adam Piotrowski, Artur Kębłowski, Wioletta Pusz, Józef Piotrowski)
Badania nad zjawiskami nierównowagowymi w półprzewodnikach przeznaczonych do wykrywania promieniowania podczerwonego zostały zapoczątkowane przez badaczy brytyjskich [1]. W złączach spolaryzowanych w kierunku zaporowym n+/&#957; oraz p+/&#960; zaobserwowano zjawiska: ekskluzji, natomiast w złączach typu n+/&#960; or p+/&#957; ekstrakcji nośników ładunku. Konsekwencją tych badań było opracowanie struktur P+/&#957;/N+ oraz P+/&#960;/N+, w których można zaobserwować dławienie mechanizmów Augera, co powoduje zmniejszenie gęstości nośników ładunku w obszarze absorbera. Czas życia nośników mniejszościowych w warstwach HgCdTe typu p jest większy niż warstwach typu n co wynika z różnic między czasami życia ograniczonymi odpowiednio procesami Auger 7 i Auger 1 [2]. Z tego powodu znacznie częściej konstruowane są struktury P+/&#960;/N+ niż struktury P+/&#957;/N+. Kluczowym problemem przy wytwarzaniu fotodiod nierównowagowych jest kontrolowane domieszkowanie typu p na niskim poziomie z wysokimi czasami życia nośników. Do wytwarzania fotodiod z dławieniem generacji Augera obecnie wykorzystywane są dwie technologie: epitaksja z wiązek molekularnych MBE (Molecular Beam Epitaxy) i osadzanie warstw ze związków metaloorganicznych MOCVD (Metal Organic Chemical Vapor Deposition). MBE pozwala na precyzyjną kontrolę nad położeniem heterozłączy oraz domieszkowaniem donorowym in situ. Kontrolowane domieszkowanie akceptorowe struktur, które mają pracować w warunkach nierównowagowych wymaga jednak niewygodnej implantacji jonów arsenu przeprowadzanej ex situ [3]. Z tego powodu wzrost metodą MOCVD jest bardziej atrakcyjny - umożliwia kontrolowane domieszkowanie donorowe jak i akceptorowe in situ na wymaganych poziomach. Dla osiągnięcia domieszkowania typu p na niskim poziomie (<1016 cm-3) w obszarze absorbera w obydwu metodach wzrostu zarówno MBE [3], jak i MOCVD [4] wymagana jest anihilacja wakansów rtęci. Jest ona dokonywana poprzez wygrzewanie ex-s... więcej»

Badania detektorów UV do zastosowań specjalnych w zakresie kriogenicznych wartości temperatury (Robert Ćwirko, Joanna Ćwirko)
Fotodetektory półprzewodnikowe na zakres promieniowania UV, VIS i IR są stosowane niemal we wszystkich dziedzinach życia: przemyśle, automatyce, aplikacjach AVT i medycynie, a także na coraz większą skalę w monitoringu zagrożeń bezpieczeństwa [1, 2]. W wyniku doświadczeń zebranych podczas interwencji wojskowych w Kuwejcie, Iraku i Afganistanie, nastąpił przyspieszony rozwój broni inteligentnych i środków ochrony chemicznej i biologicznej, gdzie ważną rolę w powstawaniu ich kolejnych generacji odgrywają różnorodne czujniki, w tym detektory UV. Detektory UV znajdują zastosowanie w systemach ochrony środowiska, na przykład w wykrywaniu na akwenach wodnych obecności związków oleju. Systemy takie są także często wykorzystywane do monitorowania nieszczelności instalacji tankowania samolotów na lotniskowcach i w portach wojennych. W systemach sygnalizacji pożarowej detektory UV są stosowane do wykrywania promieniowania w zakresie 200 nm, emitowanego przez płomienie towarzyszące spalaniu paliwa i znajdują zastosowanie w ochronie magazynów i pomieszczeń [3, 4]. Badania detektorów Ze względu na zastosowane materiały półprzewodnikowe detektory UV można podzielić na detektory bazujące na krzemie oraz na półprzewodnikach o szerokiej przerwie zabronionej - GaN, AlGaN, TiO2 i SiC. O właściwościach materiałów o szerokiej przerwie zabronionej często decyduje koncentracja głębokich centrów defektowych w przerwie zabronionej. Głębokie centra defektowe mogą zostać wbudowane w strukturę półprzewodnika zarówno w trakcie procesów produkcyjnych, lub/i ujawnić się podczas eksploatacji w niekorzystnych warunkach środowiskowych, na przykład w wyniku napromieniowania wysokoenergetycznego. Poznanie tych destrukcyjnych procesów i opracowanie środków zaradczych oznacza znaczne oszczędności ekonomiczne. Głębokie centra defektowe działają głównie jako centra generacyjno- rekombinacyjne i pułapkowe. Kontrolują zatem czas życia nośników i są wykorzystywane... więcej»

Model wpływu układu optycznego na czułość detektorów podczerwieni w matrycy mikrobolometrycznej (Sławomir Gogler, Grzegorz Bieszczad, Michał Krupiński, Tomasz Sosnowski)
W nowoczesnych systemach wizyjnych stosowanych w wojsku i ochronie obiektów coraz częściej stosuje się kamery termowizyjne, które służą do zobrazowania rozkładu promieniowania podczerwonego na obserwowanej scenie [1, 2]. Współczesne kamery termowizyjne wyposażone są w wieloelementowe matrycowe detektory podczerwieni [3, 4]. Detektory promieniowania podczerwonego w matrycy zwracają informację w postaci sygnału elektrycznego proporcjonalnego do strumienia promieniowania padającego na ich powierzchnię [4, 5]. Jednym z najistotniejszych parametrów detektorów podczerwieni jest ich czułość napięciowa na strumień padającego na nie promieniowania podczerwonego [6, 7]. Kamery termowizyjne oraz używane w nich matrycowe detektory podczerwieni są w procesie produkcyjnym poddawane procedurze kalibracji i wyznaczania czułości napięciowej. Na stanowisku kalibracyjnym detektory w matrycy są oświetlane promieniowaniem podczerwonym poprzez specjalny układ optyczny. Każdy zastosowany w torze układ optyczny wpływa na rozkład promieniowania padającego na powierzchnię matrycy detektorów. W artykule opisano model służący do opisu rozkładu natężenia promieniowania podczerwonego padającego na matrycę detektorów podczerwieni pracującą z układem optycznym zastosowanym w stanowisku do kalibracji kamer termowizyjnych [8-11]. Pomiar natężenia promieniowania padającego na każdy detektor pozwala na zobrazowanie rozkładu promieniowania na obserwowanej scenie. Specjalny układ odczytu umożliwia sekwencyjny odczyt zmierzonej wartości napięcia proporcjonalnego do natężenia promieniowania podczerwonego z każdego detektora w matrycy [12-14]. Na rysunku 1 przedstawiono szkic budowy mikrobolometru w postaci mikromostka wykonanego w technologii monolitycznej. Element czynny, wykonany w kształcie mikromostka o grubości 0,1 &#956;m, jest podtrzymywany na dwóch metalowych słupkach zakotwiczonych w podłożu krzemowym. Słupki stanowią jednocześnie połączenie elektryczne... więcej»

Metoda wyznaczania czułości mikrobolometrycznych detektorów podczerwieni z zastosowaniem wymiennych (Grzegorz Bieszczad, Sławomir Gogler, Michał Krupiński, Henryk Madura)
Współczesne kamery termowizyjne służą do zobrazowania rozkładu promieniowania podczerwonego na obserwowanej scenie [1-4] i wyposażone są w matrycowe detektory podczerwieni. Zastosowanie matryc detektorów umożliwia wyeliminowanie skomplikowanego skanującego układu mechaniczno-optycznego. Powstały obraz termowizyjny uzyskany tą techniką ma rozdzielczość termiczną równą, bądź niewiele mniejszą od rozdzielczości zastosowanej matrycy. Detektory promieniowania podczerwonego w matrycy zwracają informację w postaci sygnału elektrycznego (napięcia) proporcjonalnego do strumienia promieniowania padającego na ich powierzchnię [1, 5]. Jednym z najistotniejszych parametrów detektorów podczerwieni jest ich czułość napięciowa na strumień padającego na nie promieniowania podczerwonego [6, 7]. Wyznaczanie czułości detektorów w matrycy jest istotnym etapem w projektowaniu oraz produkcji kamer termowizyjnych, gdyż determinuje parametry układów elektronicznych do konwersji i przetwarzania sygnału z matrycy [7-9]. Metoda wyznaczania czułości jest niezbędna na przykład do przeprowadzenia procedury NUC [10], czyli procedury korekcji niejednorodności odpowiedzi detektorów w matrycy. W artykule opisano opracowaną metodę wyznaczania czułości detektorów, którą zastosowano do badania parametrów mikrobolometrycznych detektorów podczerwieni firmy ULIS (Francja) [11]. Matrycowe detektory mikrobolometryczne są obecnie coraz częściej stosowane ze względu na stosunkowo niski koszt produkcji, przy zachowaniu wystarczająco dobrych parametrów do większości zastosowań. Działanie detektora bolometrycznego polega na przemianie energii promieniowania podczerwonego padającego na absorber w ciepło, które z kolei powoduje zmianę rezystancji materiału użytego do budowy bolometru. Odpowiedni układ ROIC (ReadOut Integrated Circuit) odczytuje zmianę rezystancji detektora i generuje na wyjściu odpowiadający jej sygnał napięciowy [12, 13]. W kamerze na detektor matrycowy sk... więcej»

Wysokorozdzielczy pomiar ugięcia mikroi nanomechanicznych czujników sił o zakresie pikonewtonów (Daniel Kopiec, Konrad Nieradka, Grzegorz Małozięć, Teodor Gotszalk)
Obserwowany obecnie postęp technologiczny umożliwia wytwarzanie i użytkowanie układów i zespołów o wymiarach sięgających w wielu przypadkach dziesiątków nanometrów. Tak małe przyrządy pozwalają na obserwację zjawisk zachodzących w skali molekularnej i nawet atomowej. Postępowi miniaturyzacji towarzyszyć musi również postęp w metrologii, w tym w ilościowej ocenie obserwowanych zjawisk. Ilustracją tego procesu są między innymi precyzyjne pomiary sił, w których opracowane metody i techniki eksperymentalne powinny zapewniać rozdzielczość rzędu pojedynczych pikonewtonów [1]. Opracowanie opisywanych metod i technik pomiarowych sił jest szczególnie potrzebne z punktu widzenia praktycznego zastosowania wysokorozdzielczych metod diagnostyki biochemicznej bazujących na rozpoznawaniu oddziaływań molekularnych między zdefiniowanymi receptorami a konkretnymi biomolekułami. Układy tego typu wykonywane są głównie jako systemy typu MEMS (ang. Micro Electro-Mechanical Systems) i NEMS (ang. Nano Electro-Mechanical Systems). Wymagają one bardzo precyzyjnego opisu właściwości sprężystych ustroju mechanicznego, opracowania układów obserwacji wychyleń i budowy odpowiedniego elektronicznego otoczenia sterującego. Mikrodźwignie sprężyste są obecnie jednym z najbardziej rozpowszechnionych produktów technologii mikrosystemów, znajdujących zastosowanie w pomiarach zmian masy, siły i przyspieszeń, a mówiąc szerzej - w obszarze mikro- i nanomanipulatorów [2]. Mikrometrowe wymiary tych dźwigni i związany z tym efekt skalowania pozwala na obserwację wielu zjawisk zachodzących w skali molekularnej, które nie są mierzalne za pomocą układów makroskopowych. Optyczna detekcja sygnału ugięcia przetwornika siły Pomiar siły z wykorzystaniem przetworników mikromechanicznych jest związany z dokładnym pomiarem ugięcia mikrodźwigni. Jedną z lepszych metod, zapewniającą wysoką rozdzielczość takich pomiarów, jest metoda optycznej detekcji ugięcia wiązki odbitej. Meto... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Układ do wyznaczania energii kinetycznej pocisków o niewielkiej prędkości (Janusz Tuśnio, Norbert Tuśnio)
Produkowana amunicja strzelecka, artyleryjska i pociski rakietowe podlegają bardzo wszechstronnym badaniom, w których podstawowymi parametrami jest prędkość i energia kinetyczna wyrobów [3]. Metodyka badań i warunki odbioru wspomnianych wyrobów zostały opracowane i dość rzadko podlegają modyfikacjom. Cechą charakterystyczną wymienionych wcześniej wyrobów jest znaczna prędkość wylotowa (rzędu kilkuset m/s) i znakomita powtarzalność toru lotu, co sprzyja pewnym uproszczeniom budowy aparatury kontrolno-pomiarowej. W ostatnich kilkunastu latach pojawiło się wiele wyrobów cywilnych o zasadzie działania amunicji strzeleckiej, których prędkość wylotowa i energia kinetyczna są niewielkie, konstrukcja pocisku sprawia, że tor lotu jest w niewielkim stopniu powtarzalny. Wyrobami tymi są na ogół wystrzeliwane ze służącej zabawie i działaniom sportowym broni pociski z tworzyw sztucznych, których szkodliwe działanie na człowieka w przypadku trafienia musi być zminimalizowane, stąd też normy określające energię kinetyczną tych wyrobów są dość ostre, a dopuszczenie do sprzedaży wyrobu uzależnione jest od pozytywnego wyniku badań certyfikujących. Odbiegający od ostrołuku kształt tych wyrobów sprawia, że tor ich lotu jest w znacznym stopniu przypadkowy, skąd trudność dokonania pomiaru prędkości za pomocą dwóch bramek optoelektronicznych. Również w technice wojskowej istnieją wyroby, których prędkości wylotowe są niewielkie, kształt pocisku odbiega od ostrołuku, a tor lotu jest w pewnym stopniu przypadkowy. Przykładowo są to niewielkie pociski rakietowe imitatorów desantu skoczków spadochronowych lub też uwalniane z lotniczych bomb kasetowych kasety zawierające włókna służące obezwładnianiu (zwieraniu) linii przesyłowych wysokiego napięcia. W pracy przedstawiono zasady wyznaczania prędkości wylotowej i energii kinetycznej wymienionych wcześniej wyrobów oraz konstrukcję układu pomiarowego służącego tym celom. Zasady pomiarów prędkości i ener... więcej»

Drodzy Czytelnicy (Anna Piotrowska)
Biezacy numer Elektroniki przynosi zbiór artykuółw z IV Konferencji Sprawozdawczej Projektu Innowacyjne technologie wielofunkcyjnych materiał ów i struktur dla nanoelektroniki, fotoniki, spintroniki i technik sensorowych. (InTechFun) realizowanego w ramach Programu Operacyjnego Innowacyjna Gospodarka w latach 2009 - 2013. Wzorem ubiegyłch lat, sprawozdawane prace byył przedstawione w czasie dwu - dniowej Sesji Specjalnej na XI. Krajowej Konferencji Elektroniki w Darółwku Wschodnim (11 - 14.06.2012 r.). Ta forma sprawozdawczosci zdaje sie najlepiej sułzyc szerokiemu upowszechnianiu wiedzy zarówno o wynikach naukowych Projektu InTe... więcej»

System optycznego przekazywania informacji dla osób niewidomych z wykorzystaniem telefonu z systemem operacyjnym Android (Adam Łutkowski, Paweł Poryzała, Piotr Skulimowski)
Rozwój techniki cyfrowej umożliwia projektowanie oraz wdrażanie wielu rozwiązań ułatwiających życie oraz normalne funkcjonowanie w społeczeństwie osobom niewidomym i słabowidzącym. Wiele z tych urządzeń wspomaga samodzielne poruszanie się w środowisku miejskim (bazując przy tym na danych pozyskanych z systemu GPS). Z ankiet przeprowadzonych z osobami z dysfunkcją wzroku wynika, że bardzo duży problem stanowi dla nich poruszanie się wewnątrz nieznanych im budynków, np. użyteczności publicznej, gdzie systemy nawigacyjne zawodzą z powodu braku sygnału GPS oraz braku dokładnych planów pomieszczeń [1]. Znalezienie odpowiedniego pokoju (w przychodni lekarskiej, urzędzie) możliwe jest wyłącznie przy wsparciu osób widzących. Odczyt tabliczek informacyjnych, nawet z użyciem specjalistycznego oprogramowania instalowanego na telefonach komórkowych, jest bardzo trudny. Motywacją do rozpoczęcia prac nad opisywanym systemem optycznego przekazywania informacji było umożliwienie osobom niewidomym uzyskania informacji o przeznaczeniu pomieszczeń w budynkach użyteczności publicznej. Istnieją podobne systemy działające w oparciu o systemy znaczników radiowych, jednak wymagają one, aby użytkownik wyposażony był w specjalistyczne urządzenie do ich odczytu [2, 3]. Innym rozwiązaniem jest zastosowanie tabliczek zapisanym alfabetem Braille&#8217;a. Aktualizacja informacji przekazywanych niewidomym jest w tym przypadku kosztowna (wymaga zastosowania drogich wyświetlaczy pisma Braille&#8217;a, bądź wymiany tabliczek w przypadku aktualizacji danych). Opisany w niniejszym artykule system wykorzystuje kamerę dostępną w każdym współczesnym telefonie komórkowym i tani wyświetlacz LED. Koncepcję działania systemu przedstawiono na rys. 1a. Aplikacja zainstalowana na telefonie komórkowym osoby niewidomej analizuje obraz rejestrowany przez kamerę. W przypadku odnalezienia w obrazie znacznika odpowiednio kieruje osobę niewidomą (pomaga jej ustawić telefon w op... więcej»

Symulacje i modelowanie tranzystorów HEMT AlGaN/GaN - wpływ przewodności cieplnej podłoża (Andrzej Taube, Mariusz Sochacki, Jan Szmidt)
Mimo obecności na rynku komercyjnie dostępnych tranzystorów HEMT na bazie azotku galu prowadzone są prace nad optymalizacją konstrukcji oraz dalszą poprawą parametrów tych przyrządów. Proces optymalizacji struktury przyrządu wymaga uwzględnienia wielu parametrów konstrukcyjnych. Zwiększa to koszty i czas jego realizacji. Stąd bardzo duże zainteresowanie zastosowaniem symulacji komputerowych do modelowania przyrządów półprzewodnikowych na bazie azotku galu. Obecnie na rynku istnieje wiele symulatorów przyrządów półprzewodnikowych, takich jak np. MEDICI i Sentaurus Device firmy Synopsys, czy ATLAS firmy Silvaco [1]. W każdym z nich zaimplementowano moduły i parametry materiałowe służące do symulacji przyrządów z azotku galu. Jednakże, duża część zaimplementowanych wartości parametrów modeli, jak i samych właściwości GaN i azotków z grupy III-N rożni się istotnie od danych eksperymentalnych bądź oszacowanych przy pomocy symulacji metodą Monte Carlo. Modelowanie oraz symulacje tranzystorów HEMT na bazie azotków stanowią od lat poważne wyzwanie. Wynika to z dużej liczby parametrów tranzystora zależnych od właściwości danego materiału a także z konieczności uwzględniania specyficznych właściwości azotków i budowanych na ich bazie hetero struktur, takich jak zjawiska polaryzacji efekty cieplne czy efekty kwantowe w obszarze kanału tranzystora. W pracy przedstawiono wyniki symulacji charakterystyk elektrycznych tranzystora HEMT na bazie heterostruktury Al0.28Ga0.72N/GaN. W pierwszej części artykułu przedstawiono wpływ przewodności cieplnej podłoża na charakterystyki tranzystora HEMT Al0.28Ga0.72N/GaN. Druga część artykułu dotyczy badania wpływu poziomu domieszkowania warstwy barierowej oraz trawienia warstwy barierowej pod kontaktem bramki na charakterystyki elektryczne tranzystora HEMT. Wykonano także symulacje charakterystyk tranzystora MOS-HEMT dla różnych grubości oraz wartości stałych... więcej»

Badanie możliwości zastosowań elastycznych ogniw fotowoltaicznych w tekstronice (Sylwia Walczak, Katarzyna Znajdek, Maciej Sibiński)
W dzisiejszych czasach nauka staje się coraz bardziej interdyscyplinarna, czego przykładem jest zwiększone zainteresowanie nowatorskimi możliwościami wykorzystania systemów elektronicznych w różnorodnych, niekonwencjonalnych aplikacjach [1]. Jedną z nich jest tekstronika, której głównym celem jest integracja przyrządów i układów elektronicznych z odzieżą, w celu podniesienia jej funkcjonalności, poprzez rozbudowę funkcji ochronnej, monitorującej, sygnalizacyjnej i rozrywkowej [2]. W momencie projektowania produktów tekstronicznych należy rozpatrzeć dość istotny problem tekstroniki, a mianowicie sposób zasilania dołączonych układów, który powinien być na tyle efektywny, aby zaspokoić potrzeby użytkownika w trakcie korzystania z wyrobu tekstronicznego [3]. W niniejszym artykule omówiono jedną z potencjalnych opcji zasilania, a mianowicie możliwość wykorzystania elastycznych ogniw słonecznych, jako zintegrowanych elementów tekstronicznych. Energia wytworzona przez takie układy może być bezpośrednio przekazywana do wybranych urządzeń elektronicznych, bądź też magazynowana w zintegrowanych z odzieżą akumulatorach. W celu oceny możliwości zastosowań elastycznych ogniw PV w tekstronice dokonano analizy wybranych parametrów ogniw słonecznych, zarówno pod względem elektrycznym, jak i mechanicznym. Przegląd dostępnych elastycznych ogniw PV W literaturze dotyczącej fotowoltaiki dostępnych jest wiele publikacji na temat możliwości wytwarzania i zastosowania elastycznych ogniw słonecznych na bazie różnych materiałów półprzewodnikowych lub związków organicznych. W praktyce jednak istnieje bardzo niewielu producentów oferujących tego typu przyrządy. Należą do nich głównie amerykańskie firmy, takie jak Uni- Solar oraz Power Film, produkujące ogniwa i moduły elastyczne na bazie krzemu amorficznego, Global Solar zajmująca się wytwarzaniem elastycznych przyrządów fotowoltaicznych opartych na związkach półprzewodnikowych CIGS, czy Konarka specj... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Integracja elementów pojemnościowych z płytką obwodu drukowanego (Wojciech Stęplewski, Grażyna Kozioł, Tomasz Serzysko, Kamil Janeczek, Aneta Araźna)
Od wielu lat w różnych światowych ośrodkach badawczych prowadzone są prace mające na celu opracowanie technologii wbudowywania elementów biernych wewnątrz płytki obwodu drukowanego w procesie jej produkcji. Elementy bierne są niezbędne w każdym układzie elektronicznym, a w wielu wypadkach stanowią znaczną jego cześć. Ich udział w wyrobach elektronicznych stale rośnie i chociaż wymiary tych podzespołów ulegają ciągłemu zmniejszaniu, to otaczająca je powierzchnia nie może być dalej zmniejszana z powodów ograniczeń narzuconych przez urządzenia montażowe oraz wymagania procesu lutowania. Idea upakowania większej liczby podzespołów na płytce obwodu drukowanego przez wprowadzenie nowych technologii wbudowywania elementów biernych wewnątrz płytki staje się obecnie dla producentów nowoczesnego sprzętu koniecznością. Koncepcja wbudowywania elementów pasywnych, w tym kondensatorów, do wnętrza płytki obwodu drukowanego powstała już wiele lat temu. Pierwsze próby z wbudowywaniem kondensatorów rozpoczęto jeszcze pod koniec lat sześćdziesiątych ubiegłego wieku [1]. Do tej pory powstało wiele materiałów, które mogą być wykorzystywane na kondensatory, jednak technologia ta wykorzystywana jest w niewielkim stopniu najczęściej w zastosowaniach wojskowych i elektronice lotniczej, w tym również elektronice używanej w przestrzeni kosmicznej. W ostatnich latach wielki wzrost zapotrzebowania na wysoko zaawansowane, a jednocześnie tanie urządzenia elektroniczne, takie jak telefony komórkowe, laptopy, urządzenia sieciowe itp. spowodował szerokie zainteresowanie nowymi technologiami, w tym technologiami elementów biernych wbudowanych. Można zauważyć trend w rozwoju płytek obwodów drukowanych, który zmierza do jak największej integracji z nią elementów elektronicznych. Materiały i konstrukcje wbudowanych kondensatorów planarnych Obecnie na rynku dostępnych jest wiele materiałów przeznaczonych do wytwarzania kondensatorów wbudowanych. Coraz więcej fi... więcej»

Metody cyfrowego przetwarzania w impulsowym radarze do sondowań podpowierzchniowych (MARIUSZ ZYCH)
Radary do sondowań podpowierzchniowych GPR (ang. Ground Penetrating Radar) cieszą się coraz to większym zainteresowaniem, zarówno w rozwiązaniach cywilnych jak i wojskowych. Służą między innymi w geologii do poszukiwania wartościowych, z historycznego punktu widzenia, przedmiotów. Radary podziemne wykorzystuje się także do wykrywania uszkodzeń wałów przeciwpowodziowych, czy też lokalizacji rur wodociągowych w przypadku braku informacji o ich faktycznym położeniu. Specjalizowane radary GPR służą do wykrywania min bądź innych ładunków wybuchowych znajdujących się w glebie. Z uwagi na niejednorodność środowiska, w jakim pracuje GPR, obróbka sygnałów w tego typu radarach jest dużo trudniejsza niż w tradycyjnych jednostkach do wykrywania obiektów w przestrzeni powietrznej. Niejednorodność analizowanej gleby wpływa niekorzystnie na zasięg radaru [4]. Nieciągłość powstała na granicy dwóch warstw ziemi powoduje odbicie fali, ponadto każda warstwa charakteryzuje się niezerowym współczynnikiem tłumienia, przez co zakres odległości obserwacji GPR wynosi kilka metrów. Maksymalny zasięg wynikający z wielu czynników tłumiących osiągany jest dla suchej ziemi. Najbardziej tłumiącym ośrodkiem jest woda, dla której moc sygnału sondującego maleje o 100 dB/m [1]. Z tego względu pomiary dla wilgotnej ziemi nie przynoszą pożądanych rezultatów. W niniejszym artykule opisane zostały impulsowe radary transmitujące sygnał z liniową modulacją częstotliwości LFM (ang. Linear Frequency Modulation). W pracy przedstawione zostały wyniki rzeczywistych pomiarów radaru GPR o fali impulsowej, radar ten został wyprodukowany przez włoską firmę IDS - Ingegneria dei S. p. A. Kompresja danych symulacyjnych w kierunku azymutalnym została wykonana przy wykorzystaniu koherentnej obróbki SAR (ang. Synthetic Aperture Radar). Radary z syntetyczną aperturą (SAR) wykorzystują antenę umieszczoną na ruchomym nośniku, która przyjmuje kolejne położenia wzdłuż trajektorii ruch... więcej»

Szacowanie niepewności w pomiarach z autokorelacją obserwacji (Zygmunt Lech WARSZA)
Stosowanie obecnej wersji zaleceń międzynarodowego przewodnika Guide to the Expression of Uncertainty in Measurement znanego pod akronimem GUM [1, 2] i jego Suplementów natrafia na ograniczenia w wielu rodzajach pomiarów, szczególnie przeprowadzanych przyrządami i systemami o zautomatyzowanym procesie pomiarowym z próbkowaniem sygnału wejściowego i przetwarzaniem a/c. Nie ma jeszcze ustalonych międzynarodowo zasad jak wyznaczać niepewność pomiaru wielkości, sygnałów i procesów zmiennych w czasie, chociaż rozpoczęto już opracowywanie podstaw naukowych do ich tworzenia [19] i istnieją wcześniejsze opracowania obejmujące częściowo tę problematykę [M5], [M6]. Propozycje udoskonalenia zaleceń GUM i rozszerzania zakresu stosowania pojęcia niepewność omawiane są też w szeregu publikacjach oraz dyskutowane na seminariach krajowych i międzynarodowych. Weryfikacją treści GUM i opracowywaniem kolejno wydawanych Suplementów zajmuje się powołany w 1997 r. wspólny komitet siedmiu organizacji międzynarodowych o skrócie JCGM, pod przewodnictwem dyrektora Międzynarodowego Biura Miar i Wag BIPM. Opracowywanie międzynarodowych przepisów metrologicznych jest jednak procesem długotrwałym i wymaga poprzedzającej weryfikacji w praktyce w różnych dziedzinach. Dlatego też przepisy te nie nadążają za bieżącymi potrzebami szybko rozwijającej się techniki pomiarowej. Dalej omówiono możliwość stosunkowo łatwego rozszerzenia zaleceń GUM na pomiary wielkości zmiennych w czasie o obserwacjach uzyskiwanych przy regularnym próbkowaniu sygnału. Przedstawiono metodę przetwarzania danych próbki umożliwiającą poprawne oszacowanie niepewności dla przypadku, gdy obserwacje są ze sobą powiązane statystycznie, czyli autoskorelowane. Podano też sposób wyznaczania estymaty funkcji autokorelacji z tych danych. "Czyszczenie" surowych danych Zmiany zbioru "surowych" wartości obserwacji pomiarowych, czyli próbki wywołany jest przez przyczyny zarówno zdeterminowane, jak ... więcej»

Nowa metoda pomiaru wysokich napięć przy wykorzystaniu materiałów nanokompozytowych (Andrzej Czopik, Sławomir Krawczyk, Katarzyna Olszewska)
Pomiar wysokiego napięcia powyżej 50 kV wykonywany jest zazwyczaj w sposób pośredni przez złożone układy pomiarowe i związany jest często z wydzielaniem dużych mocy, które muszą być odprowadzane. Znanych jest kilka konstrukcji przyrządów i układów wykorzystywanych do pomiarów wysokich napięć stosowanych w zależności od źródła i rodzaju napięcia, warunków zewnętrznych, a także celu pomiaru. Do określania wartości: napięcia stałego, szczytowej napięcia przemiennego, lub szczytowej napięcia udarowego stosowany jest iskiernik. Wykorzystuje on skończoną wytrzymałość elektryczną powietrza i zależność napięcia przeskoku w powietrzu od odległości elektrod, do których to napięcie jest przyłożone. Zazwyczaj stosuje się iskierniki kulowe o znormalizowanych średnicach kul, a wytworzone między nimi pole elektryczne zależy od tych średnic i ich odległości. Na napięcie przeskoku oprócz wielkości pola elektrycznego, wpływają warunki atmosferyczne oraz otaczające przedmioty. Innym przyrządem do pomiaru wysokiego napięcia jest dzielnik napięciowy. Pomiar napięcia za pomocą dzielników polega na zmniejszeniu wartości napięcia doprowadzanego do przyrządu pomiarowego przy możliwie wiernym zachowaniu jego kształtu. W tym celu stosuje się dzielniki rezystancyjne, pojemnościowe lub rezystancyjno-pojemnościowe. Mierzona wartość zależy od stosunku impedancji poszczególnych elementów dzielnika. Przy doborze tych elementów należy również uwzględnić wydzielanie się na nich dużych ilości ciepła w wyniku przepływu prądu. Kolejnym znanym przyr... więcej»

Zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia w wieloetapowym procesie montażu elektronicznego (Janusz Borecki, Tomasz Serzysko)
Dalece zaawansowany stopień miniaturyzacji i integracji podzespołów elektronicznych sprawia, że nowoprojektowane urządzenia elektroniczne zawierają elementy o bardzo zróżnicowanej budowie i wielkości. Coraz częściej zdarza się tak, że projektanci, wbrew ogólnie znanym zasadom rozmieszczania podzespołów na poszczególnych stronach płytki obwodu drukowanego (pierwsza strona montażu - lżejsze podzespoły; druga strona montażu - cięższe podzespoły), umieszczają dość ciężkie podzespoły na obydwu stronach montażowych płytki obwodu drukowanego. W efekcie dochodzi do sytuacji, kiedy siły napięcia powierzchniowego przetapianego lutowia, podczas wykonywania montażu drugiej strony pakietu elektronicznego, nie są wystarczające, aby utrzymać na powierzchni płytki podzespoły, które zostały zamontowane na pierwszej stronie pakietu. Istnieje wtedy bardzo duże ryzyko odpadania zbyt ciężkich podzespołów lub zniekształcenia ich połączeń lutowanych. Należy w tym miejscu wspomnieć, że formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa bardzo ważne zadania, jakimi są: przyłączenie podzespołów elektronicznych do sieci połączeń obwodu elektrycznego montowanego pakietu oraz mechaniczne zamocowanie podzespołów na powierzchni płytki obwodu drukowanego. Każde zniekształcenie połączenia lutowanego może mieć negatywny wpływ na jego wytrzymałość i tym samym obniżyć nieuszkadzalność całego zespołu elektronicznego. Zagadnienie wieloetapowego montażu pakietów elektronicznych dotyczy zarówno technologii ołowiowej, jak i bezołowiowej, a zastosowanie past lutowniczych o zróżnicowanej temperaturze topnienia powinno pozwolić na zapobieganie sytuacji odpadania podzespołów podczas procesu montażu. Co prawda można kłopotliwe podzespoły kleić do powierzchni płytki po zmontowaniu jej pierwszej strony, jednakże wymaga to wprowadzenia do procesu montażu dodatkowej operacji. Takie rozwiązanie powoduje również pewne trudności w wypadku ... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Method of temperature fluctuations compensation in the silicon photomultiplier measurement system (Mateusz Baszczyk, Piotr Dorosz, Sebastian Głąb, Wojciech Kucewicz, Łukasz Mik, Maria Sapor )
Independently of the direction the p-n junction is polarized in, the currents in it are strongly dependent on temperature. In the state of the avalanche breakdown, the increase of the temperature contributes to the more vivid vibrations of the particles of the crystal lattice. The vibrating atom occupies more space and the probability of the collision with an accelerated carrier increases. The collisions occur earlier so the free path is shorter. It means that the carriers are accelerated on shorter path and have smaller kinetic energies. Insufficient energy results in a reduction of the probability of knocking out carriers pairs. Avalanche multiplication becomes weaker and the avalanche current decreases. Silicon Photomultiplier operates in Geiger mode which mean that it is polarized beyond the breakdown voltage. Variation of breakdown voltage especially influence the parameters of SiPM. This voltage depends on temperature. When temperature increase value of the breakdown voltage increase also [1]. This variation leads to fluctuation of the current of SiPM because polarization voltage is constant during measurement. Distance between polarization voltage and the breakdown voltage is changed. To set operating parameters of SiPM on the stable level there is need to control temperature. This article introduce new method for compensating temperature fluctuations. This method is based on controlling distance between breakdown voltage and polarization voltage to set current of the p-n junction on the stable level. If the temperature of the Silicon Photomultiplier is higher than 0K, inside the detector, due to vibrations of the lattice, pairs of the electron-hole carriers are created. It is called the thermal generation of the carriers. The probability of detecting the photon (detecting the absorption of the photon resulting in the generation of avalanche current) is directly proportional to the value of bias voltage of the detector.... więcej»

Extracted window offsetting using maximally flat fractional delay filter (MAREK BLOK)
In digital signal processing the delay operator is one of the basic building blocks. Such an element can be readily implemented since it simply stores samples for few processing cycles so they can be used in farther processing without any quality loss. Nonetheless, its capabilities to delay digital signal are limited to the integer multiple of the sampling period. This is the problem because many applications need to delay signal for a fraction of the sampling period. This can be achieved with digital filter but the task is not simple and signal quality must be compromised to some extent. Therefore to obtain the best possible results optimal filters should be used. High performance of the optimal FD filter is, however, paid for with complex design procedure which excludes direct utilization of optimal methods in applications where variable fractional delay (VFD) filter is required, such as synchronization in digital modems [1-3], modeling of instruments [4, 5] and sample rate conversion [6, 7]. In this paper we will consider the last of aforementioned applications, since it requires an FD filter with different fractional delay for each output sample and the required fractional delay changes in the whole range from 0 to 1. With the Farrow structure [8, 9] or the extracted window method [10-13] optimal FD filters might be implemented offering the best performance with the lowest filter order. The use of the adjustable fractional delay allows for change between any two arbitrary selected sampling rates. However, with optimal FD filters the resampled signal must be bandlimited which means that additional lowpass prefilter is required [14]. In this paper we demonstrate that the prefilter is not needed if instead of optimal FD filters we use the offset window method [15]. This FD filter design method is quite simple, though the proper window selection and its offsetting is problematic. We propose to use the window extracted from opt... więcej»

Analiza właściwości cienkich warstw TiO2:Tb jako powłok fotokatalitycznych (Damian Wojcieszak, Danuta Kaczmarek, Jarosław Domaradzki, Eugeniusz Prociów, Michał Mazur, Piotr Domanowski&#8201;)
Rozwój nowoczesnych technologii związany jest obecnie w dużym stopniu z właściwościami oraz z możliwościami zastosowania materiałów na bazie tlenków metali. Jednym z takich materiałów jest dwutlenek tytanu (TiO2), który ma szereg takich zalet jak np. duża przezroczystość, duża stabilność termiczna, chemiczna i mechaniczna oraz duża aktywność fotokatalityczna [1-3]. Właściwości dwutlenku tytanu mogą być modyfikowane m.in. przez zmianę parametrów procesu nanoszenia [4], domieszkowanie [4, 5] lub też przez obróbkę poprocesową (np. wygrzewanie) [6]. TiO2 jest uznanym materiałem fotokatalitycznym, powszechnie stosowanym przy wytwarzaniu powłok samoczyszczących. Jego aktywność fotokatalityczną można dodatkowo zwiększyć wytwarzając materiały o większej powierzchni aktywnej lub stosując domieszki np. w postaci takich pierwiastków ziem rzadkich jak terb, europ, czy też neodym [2, 3, 5]. Część eksperymentalna Cienkie warstwy TiO2 i TiO2:Tb naniesiono metodą wysokoenergetycznego rozpylania magnetronowego, rozpylając metaliczne targety Ti oraz Ti... więcej»

Właściwości hydrofilowe przezroczystych i półprzewodzących cienkich warstw tlenków Ti-V do zastosowań w transparentnej elektronice (Karolina Sieradzka, Jarosław Domaradzki, Bogdan Adamiak, Kosma Baniewicz&#8201;)
W ostatnich latach, w literaturze światowej obserwujemy zwiększone zainteresowanie nanokrystalicznymi materiałami tlenkowymi. Coraz bardziej pożądane są nowoczesne materiały o zadanych, ściśle określonych takich właściwościach, jak np. wysoka przezroczystość, dobre przewodnictwo elektryczne, właściwości hydrofilowe lub hydrofobowe, właściwości antyrefleksyjne itp. [1, 2]. Nanokrystaliczne cienkie warstwy ze względu na fakt, iż łączą w sobie przede wszystkim dwie specyficzne cechy [3]: (1) wysoką przezroczystość dla światła oraz (2) zdolność przewodzenia nośników prądu elektrycznego w temperaturze pokojowej, stanowią alternatywę dla klasycznych półprzewodników. W zależności od poziomu rezystywności elektrycznej, tlenki te, zaliczane są do materiałów typu TCO (ang. Transparent Conducting Oxide) lub TOS (ang. Transparent Oxide Semiconductor). Zwiększone zainteresowanie materiałami typu TCO oraz TOS wynika również z faktu, że bardzo często wykazują one dodatkowo inne pożądane właściwości. Dla przykładu, cienkie warstwy tlenków o właściwościach antyrefleksyjnych, wytwarzane zwykle w układzie wielowarstwowym TiO2-SiO2 [2], pozwalają uzyskać znaczną redukcję współczynnika odbicia światła. Inny przykład stanowią warstwy o właściwościach hydrofilowych, mające zdolność do równomiernego zwilżania wodą powierzchni materiału [1]. Wówczas, krople wody łącząc się w obrębie większego obszaru, zbierają napotykane na swojej drodze wszelkie zabrudzenia i spływając pozostawiają czystą, pozbawioną smug powierzchnię. Zazwyczaj, kąt zwilżania dla wody w wypadku najczę... więcej»

Behavioural modelling of dynamic frequency scaling with prediction of the integrated circuit temperature (MACIEJ FRANKIEWICZ, ANDRZEJ KOS)
Considering the aspiration to make modern digital circuits faster and scaling down the technology the researchers must take into account thermal effects [3]. The goal is to find the trade off between keeping the throughput of the system on the possible maximum level and decreasing the power consumption of the device. Assuming that circuit cannot exceed acceptable maximum temperature for proper work it should be controlled in the way keeping its temperature as close to the permissible limit as possible with minimal fluctuations. To achieve that some dynamic control systems have been developed including: Dynamic Voltage Scaling (DVS) - scaling the supply voltage, Dynamic Clock Throttling (DCT) - shutting off the clock when overheating and Dynamic Frequency Scaling (DFS) - scaling clock frequency, which are often combined [4]. Idea of frequency control origins from the fact that circuit working with higher frequency consumes more power. In order to cool it down it has to be slowed down. When the chip returns to safe temperature range it can work faster again. This frequency- temperature feedback can be used to stabilize the temperature and ensure safe work of the circuit. Despite former achievements on the field some further investigations must be done to improve thermal behaviour of the circuit and find the optimal control system [5]. Popular electronic simulators are not suitable for thermal transient simulations of electronic circuits. That causes the need to create an environment in which temperature of the circuit can be examined. Presented MATLAB models have been created to verify several different implementations of the dynamic frequency control systems before fabrication of the ASIC (Application Specified Integrated Circuit). In addition Predictive Frequency Scaling (PFS) method which is based on DFS and DCT but predicts changes in temperature in nearest future will be introduced and its advantages will be motivated [1]... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Research achievements of the DSOD Lodz in the field of photovoltaics (Katarzyna Znajdek, Maciej Sibiński)
The Department of Semiconductor and Optoelectronics Devices was established in 2008 as a part of the Faculty of Electrical, Electronic, Computer and Control Engineering at the Technical University of Lodz in Poland. The team of the DSOD Lodz consists of two professors, two associate professors, nine doctors, five PhD students and seven technical and administration employees. The Department&#8217;s research activities cover optoelectronic, micro- and nanoelectronic technologies, modeling and analysis of electrical and thermal phenomena in semiconductor devices, as well as designing and manufacturing of semiconductor devices, including solar cells. The main fields of the research interest are power semiconductor devices, high temperature electronics with emphasis on SiC technology, integrated intelligent systems, photonic systems and photovoltaic cells [1]. Resources and technological base Both teaching and research activities are conducted in the Department&#8217;s laboratories which enable investigation and experiments covering designing, manufacturing and testing of photovoltaic devices. Laboratories&#8217; equipment base of the DSOD at TUL covers among others: &#61607; Technological Centre of Microtechnology comprising Clean- Room laboratory, equipped with the facilities for fabrication and characterization of semiconductor or metal thin films, as well as for mapping of designed semiconductor structures. &#61607; Optoelectronics under the patronage of Corning Cable Systems Poland &#61607; Hybrid Systems Laboratory, equipped, inter alia, with the pneumatic screen printer, the ball mill and the station for screen printing pastes preparation. &#61607; Photovoltaic Laboratory, fully equipped with an integrated measurement system that simulates standard test conditions STC, in accordance to the requirements of IEC 60904-1 and IEC 60904-3. The system includes C class solar simulator (in accordance to IEC 60904-9) with a silicon... więcej»

Podsumowanie Narodowego Testu Interoperacyjności Podpisu Elektronicznego (Robert Poznański, Karol Szacki, Łukasz Stroiński)
Podpis elektroniczny został wprowadzony do prawa europejskiego przez dyrektywę 99/93/EC, która została uchwalona w roku 1999. W Polsce podpis elektroniczny został zaimplementowany w roku 2001 poprzez uchwalenie "Ustawy o podpisie elektronicznym". Przepisy prawa nadają szczególne znaczenie podpisowi kwalifikowanemu, który jest zrównany z podpisem odręcznym. Format podpisu, który może być stosowany przy składaniu podpisów kwalifikowanych został zdefiniowany przez ETSI (European Telecommunications Standards Institute) w trzech odrębnych specyfikacjach, opisujących formaty podpisu XAdES, CAdES i PAdES. Ze względu na fakt, iż wymienione specyfikacje są bardzo obszerne, podpisy utworzone na ich podstawie mogą znacznie różnić się między sobą. Narodowy Test Interoperacyjności Podpisu Elektronicznego (NTIPE) miał na celu zbadanie o opisanie stanu rynku aplikacji służących do składania i weryfikacji bezpiecznego podpisu elektronicznego. Istotnymi elementami było zweryfikowanie problemów związanych ze współpracą różnych aplikacji, uznawalnością certyfikatów wydanych przez różne centra certyfikacji oraz ocena zgodności składanych podpisów z wymaganiami prawa. W teście wzięło udział w sumie dziesięć aplikacji przygotowanych zarówno przez krajowe jak i zagraniczne podmioty. Na potrzeby NTIPE zbudowano autorskie środowisko zapewniające możliwość udostępniania plików z testami, możliwość wprowadzania rezultatów testu. Utworzono także centrum certyfikacji, które służyło do wydawania i... więcej»

Organic photovoltaics - chosen aspects (Justyna Szostak, Ryszard Signerski, Kamila Żelechowska, Jan Godlewski)
Preparation of inorganic solar cells usually requires very costly and complicated high temperature vacuum deposition techniques. Furthermore, materials used for fabrication of these cells are expensive and often dangerous for the environment, not to mention the hazardous and toxic substances used during manufacturing process and its by-products [1]. Hence, organic solar cells (OSCs), that can be fabricated from relatively cheap materials, using simple solution coating techniques, i.e. ink-jet printing or spin and dip coating, which do not require high temperatures nor the usage of hazardous substances, seem to be a promising alternative for the inorganic photovoltaics. Moreover, the number of organic materials is much greater than the number of inorganic ones, so the potential of applications of organic materials in photovoltaics is greater as well. However, relatively low efficiency and fast degradation of organic solar cells [2, 3] are serious drawbacks that hinder commercialization of organic photovoltaic diodes. Designing organic solar cells with higher energy conversion efficiency and stability is impossible without extensive knowledge on all physical and chemical processes taking place inside organic photovoltaic devices in the dark and under illumination. Even though there are many experimental works showing the performance of OSCs, theoretical model for the photovoltaic effect taking place in these devices has not been developed yet. Significant differences in structure of organic and inorganic materials result in different types of interactions between molecules. Thus, even though the mechanisms of photovoltaic effect in inorganic systems are well known and described in literature, processes that affect photovoltaic phenomenon in organic systems still need further understanding. Thus, research we run in our laboratory is focused on analysis of the above mentioned processes. Photovoltaic phenomenon in organic systems ... więcej»

Model and design of integrated LTCC piezoelectric accelerometer and package (Arkadiusz DĄBROWSKI, Dominik JURKÓW, Tomasz ZAWADA, Leszek GOLONKA)
Low Temperature Co-fired Ceramics (LTCC) and thick-film technology can be applied not only in fabrication of multilayer electronic circuits, but also in microsystem technology [1, 2]. The LTCC technology is based on flexible ceramic tape processing. 3-dimensional devices with cavities, channels, beams and diaphragms are made of properly machined stacked layers of the ceramic tape. It is possible to build various type of sensors e.g. pressure sensor [5] and force sensor [3] utilizing the LTCC technology. There is also possible to use ceramic materials to fabricate packages for electronic circuits or devices made of e.g. Si [4]. In this paper the model and preliminary project of the LTCC package for piezoelectric accelerometer are presented. The sensor has been successfully designed and manufactured previously. Unpackaged sensor is presented in Fig. 1a. The sensor is made of the LTCC with TF2100 PZT thick film (Meggitt Sensing Systems, Kvistgaard,... więcej»

Laser texturing and microtreatment of silicon for photovoltaics (LECH A. Dobrzański, ALEKSANDRA Drygała, MAŁGO RZATA Musztyfaga)
Wyczerpujące się zasoby konwencjonalnych źródeł energii oraz wzrastające zanieczyszczenie środowiska naturalnego powodują, że od wielu lat prowadzi się badania nad pozyskiwaniem energii ze źródeł odnawialnych. Należą do nich także ogniwa słoneczne, ich zdecydowana większość wykonywana jest z krzemu. Obecnie, techniki wytwarzania krzemowych płytek i ogniw fotowoltaicznych, zdominowały znaczą część komercyjnego rynku fotowoltaicznego poprzez ich ogromny zapas. Prognozuje się nawet, że aktualny stan dominacji utrzyma się aż do roku 2020. Technologia laserowa w produkcji ogniw fotowoltaicznych staje się nieodzownym elementem współczesnej fotowoltaiki, stwarza możliwość precyzyjnej mikroobróbki materiału i powierzchni dzięki wykorzystaniu wiązki laserowej jako zautomatyzowanego narzędzia służącego do ich kształtowania. W pracy przedstawiono wykorzystanie technik laserowych do teksturowania powierzchni krzemu oraz selektywnego spiekania laserowego elektrod przednich na powierzchni krzemu [1-4]. Zastosowanie laserów do wytwarzania krzemowych ogniw fotowoltaicznych Technologia laserowa znajduje szerokie zastosowanie w różnych obszarach przemysłu fotowoltaicznego. Na rys. 1 przedstawiono różne aspekty zastosowania laserów w inżynierii powierzchni w Zakładzie Technologii Procesów Materiałowych i Technik Komputerowych w Materiałoznawstwie Instytutu Materiałów Inżynierskich i Biomedycznych Politechniki Śląskiej. Główny kierunek prac badawczych z zakresu fotowoltaiki dotyczy problematyki technologii wytwarzania ogniw fotowoltaicznych z krzemu krystalicznego z adaptacją technologii laserowych do: &#9679; teksturowania powierzchni krzemu polikrystalicznego w celu zmniejszania współczynnika odbicia promieniowania słonecznego i zwiększenia sprawności fotoogniw, &#9679; selektywnego spiekania laserowego SLS (ang. Selective Laser Sintering) elektrody przedniej do jego monokrystalicznej powierzchni krzemowej, z użyciem lasera CO2 w celu popra... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Naziemna telewizja cyfrowa - wybrane zagadnienia (JAN BOGUCKI)
Telewizja analogowa jest znana na świecie od ponad pięćdziesięciu lat. Można bez cienia wątpliwości stwierdzić, że ten system nadawania programów sprawdził się. Mimo to, w Polsce 31 lipca 2013 roku [4] zostanie wyłączony ostatni telewizyjny nadajnik analogowy. Nadawanie telewizji od tego momentu będzie się odbywało tylko w formie cyfrowej. Jakie czynniki zadecydowały o tak radykalnym zmianie sytemu? Otóż na zmianę tę wpłynął szereg czynników. Najważniejszy z nich jest związany z tzw. dywidendą cyfrową, polegającym na tym, że cały kraj może być pokryty nawet 8 programami telewizyjnymi przy wykorzystaniu teoretycznie tylko jednego dotychczasowego kanału analogowego o szerokości 8 MHz. A więc oszczędności widma elektromagnetycznego, które jest dobrem ograniczonym, a tym samym, które należy eksploatować oszczędnie, nie da się przecenić. Innym czynnikiem jest rozwój nowych technologii, wymagający dostępnego pasma elektromagnetycznego np. dla transmisji danych w technologii LTE (Long Term Evolution). W artykule przedstawiono pewne charakterystyczne aspekty dotyczące naziemnej telewizji cyfrowej. Nadawanie tradycyjne i cyfrowe W telewizji analogowej dla każdego programu konieczne jest zbudowanie własnej, odrębnej sieci dystrybucyjnej (rys. 1), tzn. sieci nadajników dostarczających abonentom określony program. (W praktyce sprowadza się to do tego, że różni nadawcy wykorzystują tą samą antenę czy maszt w danej miejscowości.) Wiąże się to z faktem, że każdy z tych programów musi być transmitowany w dedykowanym tylko jemu kanale częstotliwościowym 8 MHz. Z reguły są wykorzystywane nadajniki dużej mocy i w tych kanałach występuje zjawisko zakłóceń interferencyjnych. Z tego powodu ogranicza się poziom zakłóceń wspólnokanałowych m.in. w ten sposób, że przy transmisji analogowej nadajniki sąsiednich ośrodków zawsze pracują na innych częstotliwościach kanałów. Wzrasta wtedy szerokość wykorzystywanego pasma częstotliwości, a tym samym taka... więcej»

LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Using auditory properties in multi-microphone speech enhancement (Adam Borowicz, Alexandr Petrovsky)
An objective of the speech enhancement is to reduce environmental noise while preserving speech intelligibility. In a context of the multi-microphone systems the dereverberation and interference suppression are also expected. Therefore, over the past decades most efforts have been devoted to the beamforming techniques. The key idea of the beamforming is to process the microphone array signals to listen the sounds coming from only one direction. Particularly the noise reduction can be implicitly achieved by avoiding &#8217;noisy&#8217; directions. A linearly constrained minimum variance (LCMV) algorithm has been originally proposed by Frost [1] in the 1970 s and it is probably the most studied beamforming method since then. It minimizes a beamformer output variance subject to the set of linear equations that ensure a constant gain in a specified listening direction. A minimum variance distortionless (MVDR) method [2] can be considered as a special case of the LCVM approach. Similarly, it minimizes a beamformer output variance, but subject to a less restrictive constraint. Another popular technique is a generalized sidelobe canceler (GSC) [3, 4]. It converts the constrained optimization problem defined in the LCVM method into a more efficient, unconstrained form. In addition a processing can be split into two independent stages - the dereverberation and noise suppression, respectively. In order to work reasonably well in the reverberant environments, the classical beamforming techniques often require a system model identification i.e. knowledge of the acoustic room impulse responses or its relative ratios. These parameters can be fixed or estimated adaptively, however in general it is a difficult task. In addition the beamforming methods are usually very sensitive to the system model uncertainties. Recently, much efforts have been made to reformulate the multichannel speech enhancement problem so that the noise reduction can be ... więcej»

Zastosowanie przekształceń grafiki trójwymiarowej w obrazowej diagnostyce medycznej (Adam Skurski, Piotr Mazur, Jakub Chłapiński, Marek Kamiński, Andrzej Napieralski, Jarosław Kasprzak, Piotr Lipiec)
Graficzna reprezentacja wyników analiz medycznych może dostarczyć dużo większą ilość informacji przy zwiększonej czytelności prezentowanych danych, niż analiza wyłącznie tabelarycznych danych tekstowych. Dzięki rozwojowi technik cyfrowych raporty medyczne zmieniły swoją postać z wykazu wartości liczbowych na bardziej wyrafinowane i łatwiejsze w interpretacji formy prezentacji wyników. W okresie ostatnich 30 lat można zauważyć istnienie silnej tendencji w kierunku uproszczenia sposobu wyświetlania danych wynikowych poprzez przedstawianie ich w postaci wykresów, czy prezentacji kolorowych modeli. Współczesne techniki diagnostyki medycznej wymagają, aby dane prezentowane w formie graficznej były dokładne i intuicyjnie interpretowalne, co często wymaga długotrwałego przetwarzania danych zebranych podczas badania. Tego rodzaju analizy wymagają więc od personelu medycznego wydłużonego czasu oczekiwania na wynik w celu podjęcia dalszych kroków diagnostyki i przyjęcia odpowiedniej ścieżki leczenia. Ciągły postęp technologiczny umożliwia obecnie znaczące skrócenia tego czasu przyczyniając się do gwałtownego rozwoju diagnostyki obrazowej. Wykorzystanie techniki CT (ang. Computed Tomography - tomografia komputerowa) dało możliwości reprezentacji wnętrza ludzkiego ciała za pomocą obrazów dwu- i trójwymiarowych (2D/3D). Zastosowanie algorytmów segmentacji obrazu umożliwiło osiągnięcie wysokiej precyzji odwzorowania przy obserwacji pojedynczych organów wewnętrznych. Inne algorytmy, takie jak algorytm Marching Cubes [7], pozwalają na opracowanie z otrzymanych obrazów modeli analizowanych struktur w postaci cyfrowej siatki geometrycznej reprezentującej ich powierzchnię boczną. Implementacja wybranych algorytmów i zastosowanie nowoczesnych technik komputerowych umożliwiło skrócenie czasu wykonywania tego rodzaju przekształceń graficznych do kilku sekund. To natomiast sprawiło iż kolejne metody przekształceń obrazów medycznych pozwalają na uz... więcej»

Narodowy test interoperacyjności podpisu elektronicznego (Marek Hołyński)
Duży zbiór rodzajów dokumentów elektronicznych oraz różnorodne ich przeznaczenie wymusza wielość formatów i rodzajów e-podpisu. Na rynku pojawiają się rozmaite, nie zawsze zgodne z sobą produkty oraz aplikacje. Istnieje zatem pilna potrzeba uporządkowania tej sytuacji i praktycznej weryfikacji oferowanych przez producentów rozwiązań na otwartym publicznym forum. Dla oceny rzeczywistej sytuacji w dniach 26-27 października 2011 r. został zorganizowany w Warszawie Narodowy Test Interoperacyjności Podpisu Elektronicznego. Koordynacji tego wydarzenia podjął się Instytut Maszyn Matematycznych, w którym od dwóch lat działa Laboratorium Podpisu Elektronicznego. Impreza organizowana była przy współpracy Ministerstwa Gospodarki i pod osobistym ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Investigation of leaded assembly process of lead-free BGA and CSP structures (Janusz Borecki)
The basic element of every electronic device is a Printed Circuit Board (PCB) on which the electronic components are mounted. Assembly of components is usually made by soldering in Surface Mount Technology (SMT). The created in this process solder joints have to fulfill two main tasks, namely: the connection of component leads to connections network, as well as the mechanical connection of component to the surface of PCB. The quality of solder joints depends on many factors, which include: parameters of assembly process, type of solder paste, surface finishing of PCB&#8217;s solder pads (e.g. Ni/Au, immersion Sn, HAL, etc.) [1]. The constant market demands for miniaturization of consumer electronic devices such as digital cameras, mobile phones, portable media players, etc., forces to use more and more functional, as well as more and more integrated multi-lead semiconductor structures (e.g. BGA, CSP, Flip-chip) [2]. These electronic devices are often operated in extremely variable environmental conditions, and the reliability of them strongly depends on quality of solder joints. It is known that the solder joints made with use leaded (Pb) technology are more reliable and more resistive for mechanical exposure in comparison to Pb-free solder joints [1]. From this reason, many sectors of electronic industry such as automotive, energetic, medical, military and aerospace are excluded from regulations of RoHS Directive [1, 3]. On the other hand, the producers of electronic components, to reduce of production costs, manufactures their products in one version only, usually in Pb-free technology. In this fact it is necessary to assembly of electronic components in mixed technique (Pb-free components assembled by leaded solder paste). Investigations At the moment of necessity of assembly in mixed technique becomes a complex issue of good quality of solder joints making. It is especially important in case of assembly of components wit... więcej»

Kwantowy efekt Hall'a w epitaksjalnym grafenie otrzymanym w ITME (Lech Dobrzański, Włodzimierz Strupiński, Rafał Stankiewicz, Marta Borysiewicz, Krzysztof Góra, Andrzej Kozłowski, Beata Stańczyk)
Warstwy grafenu otrzymano w ITME oryginalną opatentowaną metodą wzrostu epitaksjalnego [1] na podłożu z węglika krzemu firmy Cree. Wzrost warstw był prowadzony na wypolerowanej stronie krzemowej płytki 4H-SiC o orientacji krystalograficznej (0001). Struktura do pomiaru efektu Hall&#8217;a została wykonana metodą fotolitografii i trawienia warstwy grafenu w plazmie tlenowej. Metalizacja kontaktów składała się z dwóch warstw Ti/Au o grubościach odpowiednio 5/200 nm. Wzór metalizacji powstał w wyniku fotolitografii odwrotnej (lift off ). Konstrukcję struktury przedstawiono na rys. 1. Wartość rezystancji &#961;XX w tym zakresie pól spada, jednak nie do zera, a do wartości ok. 0,1RK. Zmiana nachylenia wykresu &#961;XY na rys. 2 dla wartości pola ok. &#177;2T ma miejsce dla wartości rezystancji równej 1/6 RK. Na rysunku 3 przedstawiono wynik pomiaru innej struktury wykonanej na tej samej płytce SiC. Przy wartości rezystancji 1/6 RK występuje wyraźna półka. Rys. 1. Struktura badawcza do pomiaru efektu Hall&#8217;a Fig. 1. Hall bar test structure Przepływ prądu wymuszano pomiędzy kontaktami 1-5. Szerokość rezystora wynosi 20 &#956;m, a jego długość 240 &#956;m. W przedstawionej strukturze jest możliwy pomiar napięcia Hall&#8217;a pomiędzy kontaktami 3-7, 2-8, ... więcej»

HTML5 versus Flash - możliwości tworzenia interaktywnych multimediów dla m-learningu (Jolanta Brzostek-Pawłowska)
Poziom rozwoju standardu HTML5 [4] oraz technologii tworzących środowisko rozwoju i udostępniania aplikacji i treści w tym standardzie jest na tyle zaawansowany, że warto bliżej rozpoznać tę technologię i zacząć stosować w nowych projektach. Większość przeglądarek WWW, tzw. Internetu stacjonarnego (komputery stacjonarne, laptopy) w znacznym stopniu wspiera już HTML5, słabiej radzą sobie z pełnym wykorzystaniem HTML5 przeglądarki mobilne ze względu na ograniczenia sprzętu mobilnego. HTML5 uznawany jest jako idealny dla urządzeń mobilnych, ponieważ może zapewniać dostępność ze wszystkich platform mobilnych. A brak tej dostępności jest zmorą wszystkich deweloperów tworzących rozwiązania na sprzęt mobilny. Konieczność tworzenia kolejnych wersji produktu dla różnych środowisk mobilnych jest czynnikiem pogarszającym wskaźniki efektywności produkcji. HTML5 wykonuje samodzielnie funkcje, dotychczas wspomagane różnymi wtyczkami do przeglądarek ("playery", "viewery"). Dokładniej mówiąc - samodzielnie wraz z przyjaciółmi, jakimi są kaskadowe arkusze stylów CSS level 3 (CSS 3) i Javascript (JS). W HTML5 nie istnieje problem konieczności instalowania wtyczek lub ich niedostępności, czego przykładem może być technologia Flash, niedopuszczona przez Steve Jobsa (Thoughts on Flash, [2]) na urządzenia iPhone i iPad firmy Apple, jako nie otwarty standard. Apple, Google, nawet Microsoft ze swoją technologią Silverlight (konkurencyjną do Flash), idą wyraźnie w kierunku HTML5, CSS3 i JavaScript. Apple i Google stworzyły nawet strony dedykowane promocji HTML5 http://www. apple.com/html5/i http://www.html5rocks.com/. Na tej ostatniej stronie o nazwie "HTML5 Rocks" Google prezentuje rozwiązania, które mogą być wykonane przy pomocy HTML5 (oraz CSS3 i JS) takie, jak: interaktywne prezentacje, przewodniki, "sandboxy" (generowanie gradientów i innych wizualnych obiektów i efektów) i inne nowości HTML5. Wydaje się, że HTML5 może stać się alternatywą dla ... więcej»

Ideal traffic system creator (Janusz Pochmara, Aleksandra Świetlicka, Mateusz Majchrzycki, Krzysztof Kolanowski, Alicja Szulta, Piotr Szablata, Jakub Pałasiewicz)
An effective distribution of goods must assure the movement of products and materials from the supplier&#8217;s warehouses to the customer&#8217;s objects at the possibly lowest cost. This means that the distribution costs, such as the costs of transport, supply and administration are to be reduced, which requires the improvement of the customers service standards at the same time. The improvement of customers service standards manifest mainly in on-time delivery. The on-time delivery is connected with formation of the transport standards in order to keep it on time [1]. In logistics, every distribution system is a fundamental component of a market economy which must consist of: &#9679; tracking and tracing system, &#9679; monitoring with GSM/GPS communication system, &#9679; alerts system, while is transit, &#9679; route optimization in real time system, &#9679; safeguarding people system, &#9679; pay per use possibility. Combining these systems together with wireless technology makes it possible to track down and trace vehicles, goods shipments, employees and mobile resources. It therefore supports logistics companies that need to constantly monitor the flow of goods they transport. This also implies an organization and synchronization of flows through nodes and network strategies. When drivers get stuck in a traffic jam, their level of stress rises rapidly. It is connected with anxiety of being late or missing an appointment (time and money loss), impossibility to predict a journey time, wasting fuel or breathing in exhaust fumes [2]. Consequently, stressful life can lead to many diseases, such as heart attack, increased blood pressure, migraine headaches etc. ... więcej»

New generation Network - PROFUSION (Krzysztof Bogusławski)
A programmable fusion network, merging the advantages of guaranteed circuit services and bandwidth efficient packet transfer into a hybrid, highly customizable network infrastructure, based on state-of-the-art Ethernet technology, is considered in this project as a feasible way to deploy flexible solutions for next-generation networks, even in multi-provider contexts. The key element enabling this concept is the modular programmable router architecture, which adopts emerging standards to support dynamic management and customized configuration of network resources and services. The issues addressed by the project PROFUSION include: &#9679; how to enable, implement and manage effective circuit/packet integration according to emerging networking/application scenarios with experimental high-performance service demonstration; &#9679; how to overcome existing limitations in network management and deploy a flexible and dynamic network service configuration framework based on emerging standards; &#9679; how to exploit programmability in view of sustainable and power efficient network design by smartly sharing network resources through circuit and packet services. As for the expected outcomes, the project will design and prototype backward compatible, cost-effective, future-proof, programmable network interfaces to facilitate the development of future dynamic Internet services. PROFUSION motivations and addressed problems Advanced transmission technologies offer large capacity in both core and access telecommunication networks, especially when optical fibres are deployed as physical medium. This capacity can be fruitfully exploited to meet the requirements of new network service markets that strongly promote emerging bandwidth-demanding applications, such as large data transfers, cloud computing applications, immersive videoconferencing, high definition TV, and cinema services. At the same time, new pervasive applications as well a... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Bumar Elektronika - przyszłość polskiej elektroniki profesjonalnej (Ireneusz Żmidziński)
Bumar Elektronika (choć przez kilka tygodni jeszcze PIT SA) to od 30 grudnia 2011 nowy podmiot w sektorze obronnym. Działa jako jedna z czterech dywizji w ramach Grupy Kapitałowej Bumar. 13 stycznia 2012 r. odbyło się spotkanie z przedstawicielami Klienta, Partnerów, Doradców, Przedstawicieli wielu Instytucji, Prezesów z Grupy Bumar oraz Pracowników. Podczas spotkania zaprezentowano podstawowe informacje o byłych podmiotach, a przede wszystkim wizję, misję, mapę strategii nowego podmiotu. Przedstawiono również główne aspekty procesu konsolidacji oraz główne elementy koncepcji Tarczy Polski. Bumar Elektronika składa się ze spółek przemysłu obronnego, które do tej pory funkcjonowały osobno. W skład Bumar Elektronika wchodzą: istniejący od ponad 75 lat Przemysłowy Instytut Telekomunikacji (PIT), który został 1 marca 2008 r. przekształcony w jednoosobową Spółkę Akcyjną Skarbu Państwa ze statusem centrum badawczo-rozwojowego, Centrum Naukowo-Produkcyjne Elektroniki Profesjonalnej RADWAR SA, jeden z największych zakładów przemysłu obronnego w Polsce istniejący od 1954 r. oraz Przedsiębiorstwo Produkcyjne Podzespołów Elektronicznych DOLAM SA, które powstało w 1961 r. jako Zakład Doświadczalny Przemysłowego Instytutu Elektroniki. Integracja tych trzech firm o podobnym profilu w ramach jednej dywizji jest częścią programu transformacji Grupy Bumar, przeprowadzonej w oparciu o rządową strategię konsolidacji i wspierania rozwoju polskiego przemysłu obronnego na lata 2007-2012 oraz Strategię Grupy Bumar, dotyczącą tworzenia wewnętrznej struktury Grupy Bumar w formie dywizji produktowych. Integrowanie produktowych dywizji w Bumarze to podstawa polityki tworzenia jednolitego, silnego, narodowego koncernu obronnego. W grudniu ubiegłego roku zapoczątkowane zostały konieczne procesy restrukturyzacyjne i konsolidacyjne, które objęły spółki wchodzące w skład Bumar Elektronika. Efektem integracji trzech spółek, tj. Przemysłowego Instytutu Telek... więcej»

Wybrane przykłady zastosowania sensorów mikrofalowych i optycznych (Mariusz Łuszczyk, Edward Sędek, Rafał Słomski, Mariusz Zych)
Urządzenia typu GPR dzięki swoim właściwościom należą do cennych narzędzi badawczych wykorzystywanym przez naukowców i inżynierów reprezentujących wiele różnych specjalności naukowych. Radary te stosowane są w inżynierii geotechnicznej, w badaniu stopnia zanieczyszczenia wód podpowierzchniowych, w glacjologii, budownictwie oraz archeologii [1, 2]. Doświadczenia uzyskane podczas eksploatacji urządzeń typu GPR pozwalają zakładać, iż bezinwazyjne techniki radarowej penetracji gruntu mogą być użyteczne z punktu widzenia bezpieczeństwa narodowego i obronności. Jest to jedna z nielicznych technik detekcji min niemetalowych oraz innych niebezpiecznych obiektów znajdujących się w ziemi, a także pustek i sztucznych nieciągłości gleby. Motywacją do podjęcia prac zakresie opracowania urządzenia do wykrywania min i improwizowanych urządzeń wybuchowych (IED) jest stale rosnące zagrożenie ze strony terrorystów wykorzystujących ten sposób walki z żołnierzami sił NATO w Afganistanie. Bardzo wysoki stopień zagrożenia, jaki stwarza wykorzystanie urządzeń typu IED, wymusza stosowanie nowoczesnych rozwiązań zarówno w szkoleniu żołnierzy, taktyce walki (zachowanie na polu walki), jak i w uzbrojeniu i sprzęcie wojskowym [4]. Przedstawiane urządzenie należy traktować jako element techniczny wspomagający przeciwdziałanie improwizowanym urządzeniom wybuchowym. IED są najczęściej wykonane w postaci kadłuba wypełnionego ładunkiem wybuchowym. Ładunki IED ukrywane są w obudowach w postaci pocisków artyleryjskich, bomb lotniczych lub innych obudowach wytwarzanych domowymi sposobami bądź przystosowanymi do pełnienia funkcji obudowy, jak na przykład kanistry, torby, rury itp. Katalog tych elementów, podobnie jak wyobraźnia twórców IED jest niewyczerpany. W większości przypadków podstawą konstrukcji urządzenia IED jest metalowa skorupa, która stwarza korzystne warunki z punktu widzenia możliwości detekcji z wykorzystaniem sensora mikrofalowego. Oprócz zagro... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Wybrane zagadnienia metrologii mikro- i nanostruktur (Teodor Gotszalk, Grzegorz Jóźwia, Zbigniew Kowalski, Karol Nitsch, Tomasz Piasecki, Jacek Radojewski, Anna Sankowska, Jarosław Serafińczuk, Przemysław Szecówka)
Postęp w dziedzinie mikro- i nanotechnologii jest związany nie tylko z rozwojem technologii wytwarzania mikro- i nanostruktur, ale również wymaga opracowania i wdrożenia nowych metod i technik badania stosowanych materiałów, konstruowanych przyrządów i podzespołów. Od technik i metod badawczych oczekuje się w tym przypadku przede wszystkim możliwości metrologicznej - innymi słowy - ilościowej oceny obserwowanych zjawisk. Dodatkowo powinny one się charakteryzować dużą czułością pozwalającą często na rejestrację zjawisk kwantowych oraz - w wielu przypadkach - nadzwyczajną lokalną zdolnością rozdzielczą umożliwiającą przeprowadzenie eksperymentu w obszarze kilkudziesięciu nanometrów kwadratowych. Należy zwrócić uwagę, że metrologia obejmuje nie tylko praktykę prowadzenia pomiaru, ale obejmuje również jego aspekty teoretyczne. W przypadku mikro- i nanostruktur oznacza to również interpretację rejestrowanych wyników, wykraczającą poza stosowane w makroskali rozumowanie bazujące często na statystycznym uśrednianiu. Konieczne jest również opracowanie i wdrożenie wiarygodnych i powszechnych metod skalowania stosowanych układów i przyrządów, co umożliwiałoby porównywanie wyników między poszczególnymi laboratoriami. Zakład Metrologii Mikro- i Nanostruktur (ZMMiN) Wydziału Elektroniki Mikrosystemów i Fotoniki (WEMIF) Politechniki Wrocławskiej (PWr) zajmuje się opisanymi zagadnieniami od 2006 roku. Ideą prowadzonych badań jest, aby integrując różne metody i techniki badawcze, dokonywać ilościowej oceny zachowań struktur spotykanych w nanotechnologii, biotechnologii i technice mikrosystemów. Integracja ta obejmuje techniki pomiaru właściwości elektrycznych (m. in. spektroskopia impedancyjna, ang. Impedance Spectroscopy, IS), skaningową mikroskopię elektronową (ang. Scanning Electron Microscopy, SEM), mikroskopię bliskich oddziaływań (ang. Scanning Probe Microscopy, SPM), dyfraktometrię rentgenowską (ang. X-ray diffraction, XRD), optoele... więcej»

BDD z atrybutem negacji w syntezie ukierunkowanej na elementy XOR (Dariusz Kania, Adam Opara)
Struktury matrycowe CPLD (ang. Complex Programmable Logic Devices) stanowią jedną z grup układów programowalnych. Architektura tych układów obejmuje programowalną matrycę połączeń otoczoną na obrzeżach konfigurowalnymi komórkami logicznymi. Charakterystycznym elementem komórki, występującym w większości układów CPLD jest blok kombinacyjny podobny do struktury PAL. Zawiera on pewną, stałą, czasami zmienną liczbę iloczynów dołączonych do sumy. Tego typu blok zwykle nazywany jest blokiem logicznym typu PAL. Blok ten występuje w większości dostępnych obecnie na rynku układów CPLD. Struktury takie można precyzyjnie nazwać układami CPLD typu PAL, w odróżnieniu od drugiej, obecnie bardzo mało popularnej rodziny układów zwanych układami CPLD typu PLA. Charakterystycznym elementem bloków logicznych zawartych w strukturach CPLD jest bramka XOR. Obecność tego elementu może istotnie wpłynąć na efektywność syntezy, której nadrzędnym celem jest minimalizacja liczby iloczynów. Obecność bramki XOR pozwala na bezproblemową realizację funkcji z warunków działania, bądź niedziałania, umożliwia negację wyrażeń, co bezpośrednio wpływa na możliwość ograniczenia liczby iloczynów niezbędnych do realizacji funkcji. Uogólniona struktura bloku logicznego typu PAL z elementem XOR przedstawiona jest na rys. 1. Klasyczna metoda syntezy układów realizowanych w strukturach CPLD typu PAL, przedstawiona między innymi w pracach [1, 5] rozpoczyna się zwykle dwupoziomową minimalizacją wykonywaną dla każdej funkcji oddzielnie, po której następuje etap odwzorowania technologicznego zminimalizowanej postaci funkcji w k-iloczynowych blokach logicznych typu PAL. W przypadku funkcji, będących sumą p implikantów (p>k), zachodzi potrzeba wykorzystywania większej liczby bloków poprzez wprowadzanie sprzężeń zwrotnych zwiększających czas propagacji sygnału. Tego typu metodologia jest powszechnie wykorzystywana w komercyjnych systemach syntezy. Znane są oczywiście od daw... więcej»

Wpływ wygrzewania na nanokrystaliczne cienkie warstwy na bazie TiO2 na przykładzie TiO2:Nd (Michał Mazur, Damian Wojcieszak , Karolina Sieradzka, Danuta Kaczmarek, Jarosław Domaradzki , Eugeniusz L. Prociów)
Doskonałe właściwości optyczne, mechaniczne oraz termiczne sprawiają, że dwutlenek tytanu (TiO2) jest jednym z podstawowych materiałów szeroko wykorzystywanych w różnych dziedzinach techniki. TiO2charakteryzuje się bardzo dobrą przezroczystością (powyżej 80%), dużym współczynnikiem załamania światła (>2,3) oraz dużą względną przenikalnością elektryczną (>80). Dodatkowo właściwości tego materiału zależą od typu jego struktury krystalicznej, na którą można wpływać, między innymi, przez wygrzewanie. Lantanowce to pierwiastki, które rzadko występują w przyrodzie, lecz mają bardzo szerokie zastosowanie w takich obszarach, jak optoelektronika, optyka, czy ceramika [1]. Związki pierwiastków ziem rzadkich mają szczególne znaczenie w produkcji luminoforów, laserów, trwałych magnesów czy wysokotemperaturowych nadprzewodników [1]. Między innymi neodym używany jest do produkcji jednych z najważniejszych laserów, w których matrycę stanowi szkło i granat itrowo-glinowy (YAG). Lasery te stosowane są np. w medycynie przy zabiegach okulistycznych oraz stomatologicznych. Lantanowce stosuje się też jako domieszki w celu modyfikacji właściwości matrycy TiO2 [2]. Dla przykładu domieszkowanie lantanowcami może wzmacniać efekt luminescencji [3-6] lub zwiększać aktywność fotokatalityczną [7, 8]. Oprócz domieszkowania, również wygrzewanie jest jednym ze sposobów zmiany, który pozwala uzyskać różne właściwości cienkich warstw. W ten sposób można wpływać, między innymi, na fazę krystaliczną i rozmiar ziaren w wytworzonych cienkich warstwach [9]. Dwutlenek tytanu może występować w trzech różnych fazach: brukitu, anatazu oraz rutylu. Jednakże jedynie fazy anatazu i rutylu są użyteczne ze względu na różne zastosowania. W pracy przedstawiono wpływ wygrzewania na właściwości strukturalne oraz na... więcej»

Nowe zadania pomiarów ostrzowych w procesie wytwarzania przyrządów półprzewodnikowych (JERZY F. KOŁODZIEJSKI, JULIUSZ SZCZĘSNY)
Większość operacji technologicznych w procesie wytwarzania przyrządów półprzewodnikowych przeprowadza się na płytkach wyciętych z monokryształu półprzewodnika. W przypadku najczęściej stosowanego monokrystalicznego krzemu (Si) średnica płytek dochodzi obecnie do 300 mm (12 cali) przy grubości płytek 775 &#956;m; grubość ze względu na wytrzymałość mechaniczną musi być większa dla dużych płytek - przy średnicy płytek 51 mm wynosiła ona tylko 275 &#956;m. Podaje się [1], że dla danej średnicy płytki d [mm] i przewidywanej powierzchni wytwarzanego przyrządu np. układu scalonego S [mm2] można otrzymać teoretycznie następującą liczbę struktur DPW (Die Per Wafer) DPW = d &#960; (d/4S - 1/&#8730;2S) (1) Strukturę (die) może stanowić oddzielny element półprzewodnikowy np. tranzystor mocy lub złożony wieloelementowy układ scalony (mikroukład). Struktura powstaje w wyniku przeprowadzenia wielu, zwykle powyżej kilkudziesięciu, operacji (procesów) chemicznych i fizycznych. Wśród nich wymienić należy utlenianie powierzchni półprzewodnika, dyfuzję w podwyższonej temperaturze wybranych domieszek, implantację jonów domieszek, trawienie chemiczne oraz nanoszenie metalicznych ścieżek połączeń i pól kontaktowych. Zaprojektowane rozmieszczenie w półprzewodniku powstających dzięki tym operacjom obszarów o różnych właściwościach i ich ukształtowanie uzyskuje się w wyniku zastosowania odpowiednich masek i wykorzystaniu procesów fotolitograficznych lub elektronolitografii. Kilka-, kilkanaście płytek półprzewodnika, tworzących partię produkcyjną jest poddawane obróbce w tym samym czasie, a w niektórych operacjach sekwencyjnie. Koszt wytworzenia na płytce jednej struktury jest zatem niewielki, nawet po uwzględnieniu, że uzysk - rozumiany jako stosunek liczby struktur dobrych do wszystkich struktur na płytce - odbiega od jedności. Kwalifikację struktur na płytce można przeprowadzić wówczas, gdy na strukturę zostały naniesione metaliczne pola kontaktow... więcej»

Zastosowanie ceramiki HTCC w konstrukcjach mikromechanicznych z warstwami grubymi PZT (Arkadiusz Dąbrowski, Leszek Golonka)
Technologie - ceramiczna i grubowarstwowa pozwalają na wykonywanie różnego rodzaju czujników, przetworników i innych urządzeń mikromechanicznych, takich jak na przykład sensory ciśnienia [1], siły [2]. W opisywanych zastosowaniach chętnie stosowana jest ceramika LTCC (Low Temperature Co-fired Ceramics - niskotemperaturowa ceramika współwypalana) głównie ze względu na temperaturę wypalania poniżej 900oC. Umożliwia to stosowanie typowych materiałów grubowarstwowych, co pozwala na wykonywanie różnego rodzaju biernych elementów elektronicznych wewnątrz wielowarstwowego modułu ceramicznego [3]. W przeciwieństwie do LTCC, ceramika HTCC wypalana jest w temperaturach z zakresu 1500&#8230;1800oC. Z tego powodu przy wykonaniu zagrzebanych metalizacji, należy stosować materiały o wysokiej temperaturze topnienia, jak W, Mo, Mn [4], o względnie większej rezystywności. W tabeli 1 przedstawiono porównanie podstawowych parametrów dwóch rodzajów ceramiki. Dla konstrukcji mikromechanicznych istotne są właściwości mechaniczne, takie jak moduł Younga oraz wytrzymałość na odkształcenia. Ceramika HTCC cechuje się blisko 3-krotnie wyższym modułem Younga w odniesieniu do LTCC, co jest jednoznaczne ze zwiększeniem sztywności konstrukcji i zmniejszeniem deformacji elementów w wyniku oddziaływania siły. Ponadto ceramika wysokotemperaturowa może pracować w wyższych temperaturach oraz posiada większą wytrzymałość mechaniczną. Ceramika HTCC znajduje głównie zastosowanie przy wykonywaniu układów mikrofalowych [5] oraz obudów [4], a także nielicznych konstrukcji mikrofluidycznych i mikromechanicznych [6]. Tab. 1. Porównanie wybranych parametrów ceramiki LTCC i HTCC [4] Tabl. 1.Comparison of selected parameters of LTCC and HTCC [4] Parametr Jednostka LTCC HTCC Przewodność cieplna W.m-1.K-1 3 20 Współczynnik rozszerzalności liniowej ppm.K-1 6 7 Wytrzymałość dielektryczna V.m-1×106 15 14 Stała dielektryczna (10 GHz) 7,8 9 Stratność dielektryczna (tg&#948... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Dynamic research of foot pressure distribution - the four-points shoe insert with PVDF sensors (Ewa Klimiec, Wiesław Zaraska, Szymon Kuczyński)
The human foot structure majorly decides about his/her movement possibilities. Correctly constructed foot is arched on internal side. The weight is distributed in a way, that medial arch acts like a shock absorber, by softening shocks caused by walking. Correctness of the foot structure can be estimate, by examining foot pressure distribution on the ground. Faulty posture manifest itself by different than correct, foot pressure distribution on the ground. Currently there are two measuring systems on the market, allowing diagnosis. It is EMed-SF [1, 2] and PEDAR - System [3, 4]. In the first one, examined person crosses through the track, placing third step on the measuring platform. Contact with the platform surface should be measured in a natural way so, that there was no measuring distortion by aware step shortening or lengthening. For this purpose, several trials heve to be done and starter has to be suitably set up. Obtained results are in the form of map which shows the pressure distribution on foot contact surface with measuring platform in N/cm2. The example of recorded pressure distribution for healthy foot structure is shown on Fig.1. ted: under the heel, medial arch, mid-foot and hallux. Films were glued together. The view of the four-points measuring shoe insert is shown on Fig. 2. Fig. 1. Pressure distribution of healthy foot to the ground recorded by EMed-SF system Rys. 1. Rozkład nacisku prawidłowo zbudowanej stopy na podłoże, zarejestrowany przez EMed-SF system Data presented on Fig. 1 shows that for healthy foot, the biggest values of the pressure are observe under heel, midfoot and on hallux. Measuring system PEDAR is characterized by the fact that we examine the foot pressure between foot and shoe sole. The pressure is recorded by pressure sensors which are installed into shoe insole. The system is expensive and shoe insole very thick. It will be profitable to develop competitive system which will be able t... więcej»

Modulacja amplitudy sygnałem pseudolosowym (Rafał Stępień, Janusz Walczak)
Sygnały pseudolosowe wykorzystywane są w wielu dziedzinach techniki. Są one stosowane między innymi w metodzie analizy Monte Carlo [13], symulatorach procesów ekonomicznych czy technologicznych oraz kryptografii [1]. W telekomunikacji są one stosowane w systemach transmisji z widmem rozproszonym DSSS [10]. Istnieje wiele metod generacji sygnałów pseudolosowych [1, 8, 13]. Niektóre metody generacji sygnałów pseudolosowych i własności sekwencji pseudolosowych opisano w dalszej części artykułu. Modulacja amplitudy należy do najprostszych rodzajów modulacji wykorzystywanych w technice. Znanych jest kilka rodzajów tej modulacji [12]. Najczęściej rozpatruje się przypadek modulacji monoharmonicznej fali nośnej sinusoidalnym sygnałem modulującym [12]. Efektem tej modulacji jest przesunięcie widma sygnału modulującego w otoczenie częstotliwości fali nośnej. W artykule rozpatrzono problem modulacji amplitudy monoharmonicznej fali nośnej sygnałem pseudolosowym, w efekcie widmo sygnału pseudolosowego zostaje przesunięte w zakres częstotliwości fali nośnej [19]. Jednym z możliwych zastosowań rozpatrywanego procesu modulacji jest możliwość zagłuszania transmisji w wybranym zakresie częstotliwości kanału transmisyjnego [16]. W porównaniu z innymi metodami zagłuszania transmisji [17] zaproponowana metoda jest relatywnie prosta. W artykule zaproponowano układ realizujący proces modulacji i zbadano doświadczalnie możliwość zagłuszania transmisji w zakresie radiofonii FM-CCIR. Sygnały pseudolosowe i wybrane metody ich generacji W technice cyfrowej generacja liczb pełni losowych nie jest możliwa. Urządzenia cyfrowe są z założenia układami w pełni deterministycznymi (o skończonej liczbie stanów) i nie mają właściwości losowych. W kryptografii wykorzystuje się jednak algorytmy generujące ciągi pseudolosowe [1]. Dla obserwatora sekwencji wyjściowej generatora ciągi takie mogą mieć cechy losowe i odróżnienie sekwencji pseudolosowej od sekwencji w ... więcej»

Oxide layers fabricated by spray pyrolysis on metallic surfaces (Katarzyna Kobierowska, Magdalena Karpińska, Sebastian Molin, Piotr Jasiński)
A rapid degradation of the implants is the main problem of the contemporary implantology. Due to the structural role of the bone, the titanium alloys and austenitic steel, type 316L are frequently used for the manufacturing of implants. This steel is not deformed, does not change color, and has hypoallergic properties. However susceptibility to pitting and crevice corrosion in chloride ions environment are objectionable features [1]. This is a significant issue to prepare a suitable implant&#8217;s outer layer to improve adhesion of osteogenic cells and anti-corrosion properties. The most commonly used methods of thin films layering are: CVD (Chemical Vapor Deposition), PVD (Physical Vapor Deposition) or PLD (Pulsed Laser Deposition). Unfortunately, most of them are relatively expensive and the process is complex. It would be useful to find the cheaper method with the less complexity. Spray pyrolysis deposition of thin ceramic films depends on the atomization of liquid precursor, droplet transport towards the heated substrate, droplet impact, spreading the liquid on the substrate and the evaporation of the solvent, then the distribution of deposited material [2]. Such layers can be obtained when the operating temperature is above the boiling point of the precursor. It is important to remember about the limit of the surface temperature above which it is not possible to obtain a continuous layers. In this paper it has been determined the optimal conditions preparation for the yttrium stabilized zirconium layers on the steel substrate. The spray pyrolysis method to produce corrosion protective ... więcej»

Device for road holes and obstacles detection (Wojciech Gelmuda, Andrzej Kos)
Today&#8217;s life as we know it is based on visual signs. Practically all the important information needed to go independently through an average person&#8217;s day is provided by their sight. Let us focus on some urban environment. A person is able to see objects, determine their approximate distance, distinguish between a hole and a bump on a road, detect and recognize an important element from its background or simply read some text information from books, posters, etc. Most of these actions, if not all, allow people to gather information and give them time to react before they approach some objects. Furthermore, there are many devices that help people gain more important for them information than they would be able to learn from a closest environment in their field of view, such as navigation systems. There are also many devices that help people keep safe and avoid some accidents, like for instance, street lights and road signs. But neither of them is well suited for visually impaired people. Of course, there are special audio signals for blind people near some pedestrian crossings and there are devices which help visual impaired people avoid obstacles [1], but they are still not sufficient to keep them safe and well informed about their surrounding environment [2]. This is mostly due to a change of sensors positions while a blind person is moving. That is why we develop a MOBIAN&#169; project - Mobile Safety System for the Blind [3]. This project is supported by The National Centre for Research and Development under: NR13-0065-10. A part of the MOBIAN&#169; project is to create a highly reliable device for detecting obstacles and holes of various length and depth, as it is presented in Fig. 1. There is no doubt that special algorithms have to be designed, tested and implemented for this purpose. Fig. 1. Holes and other obstacle detection Rys. 1. Wykrywanie dziur, usk... więcej»

GENESI: Wireless Sensor Networks for structural monitoring (Brendan O&#8217;Flynn, David Boyle, E. Popovici, Michele Magno, C. Petrioli)
The GENESI project has the ambitious goal of bringing WSN technology to the level where it can provide the core of the next generation of systems for structural health monitoring that are long lasting, pervasive and totally distributed and autonomous. Sensor nodes are being redesigned to overcome their current limitations, especially concerning energy storage and provisioning (we need devices with virtually infinite lifetime) and resilience to faults and interferences (for reliability and robustness). New software and protocols will be defined to fully take advantage of the new hardware, providing new paradigms for cross-layer interaction at all layers of the protocol stack and satisfying the requirements of a new concept of Quality of Service (QoS) that is application-driven, truly reflecting the end user perspective and expectations. The GENESI system will be deployed in two pilot deployments; namely the monitoring of a bridge (Pont de la Poya, Switzerland) and a metro tunnel (Metropolitana Linea B, Rome), both during and after construction. System requirement analysis GENESI (Green sEnsor NEtworks for Structural monItoring) [1] exhibits a range of system requirements from a variety of established and emerging technical scientific disciplines. The systems are required to be &#8220;Green" and Sustainable - The use of energy scavanging techniques (i.e. harnessing available environmental energy) to extend the lifetime of GENESI nodes will be employed. Realistic potential sources include solar and wind energy. A fuel cell or series of fuel cells, capable of providing significant amounts of energy, will also be integrated in the design of a novel power unit. This unit may also make use of integrated suitable battery cell(s) and/or other storage techniques (such as capacitors). It should provide sufficient energy to power the GENESI wireless sensor nodes for extended periods of time. In addition to developing novel hardware to add... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»