profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły

ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik ISSN 0033-2089

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Problemy występujące podczas pomiarów przepięć w sieciach SN (Ryszard Beniak, Arkadiusz Gardecki )
Jednym z kryteriów oceny jakości energii elektrycznej są przepięcia napięciowe. Wyróżniamy trzy zasadnicze rodzaje przepięć: krótkotrwałe wzrosty napięcia, przepięcia oscylacyjne oraz przepięcia impulsowe. Natura ich powstawania może być różnorodna. Przyczyną ich mogą być np. wyładowania atmosferyczne ale także manewry łączeniowe na liniach zasilających oraz w rozdzielniach a także krótkotrwałe jednofazowe zwarcia [1]. Może to być powodem poważnych trudności związanych z działaniem nowoczesnych systemów kontroli i sterowania procesami technologicznymi [2]. W referacie przedstawione zostaną techniczne uwarunkowania pomiarów jednego z rodzajów zakłóceń tego typu pochodzących od wyłączników próżniowych w sieci SN o napięciu 20 kV. Przyrząd pomiarowy wykorzystywany do pomiaru przepięć Krótkotrwałe wzrosty napięcia charakteryzują się wzrostem amplitudy napięcia powyżej 110% napięcia znamionowego i czasie trwania od 0,6 s do 60 s. Przepięcia oscylacyjne natomiast wyróżnia czas trwania od 5 μs do 50 ms oraz zmiana amplitudy nawet do 8 krotnej wartości napięcia znamionowego. Przepięcia impulsowe można scharakteryzować przy pomocy czasu narastania zbocza który zawiera się w przedziale 5 ns…0,1 ms oraz czasu trwania 50 ns…1 ms. Z informacji podanej w poprzednim akapicie wynikają specyficzne wymagania dotyczące parametrów sprzętu pomiarowego umożliwiającego pomiar dla większości podanych zakresów w sieciach elektroenergetycznych SN (20 kV). Wymagania te możemy scharakteryzować następująco: - częstotliwość pomiarowa powinna być jak największa, - możliwie dokładny pomiar prądów - jak najdokładniejszy pomiar napięć, - odporność sprzętu pomiarowego na zakłócenia, - zabezpieczenie układu pomiarowego przed zwarciami międzyfazowymi oraz zwarciami faza-masa. Do wykonania pomiarów stanów dynamicznych podczas zadziałania wyłącznika próżniowego w warunkach przemysłowych użyto modułowego systemu pomiarowego wykorzystującego el... więcej»

Zastosowanie krzyżowania uśredniającego do ewolucyjnej metody wyznaczania ścieżki przejścia na morzu (Łukasz KUCZKOWSKI, Piotr KOLENDO, Bartosz JAWORSKI, Roman ŚMIERZCHALSKI)
Problem planowania ścieżki przejścia definiuje się następująco: dla ruchomego obiektu o określonych właściwościach dynamicznych i kinematycznych, poruszającego się w zdefiniowanym środowisku należy znaleźć ścieżkę przejścia między punktem początkowym a końcowym, która pozwala ominąć występujące w środowisku przeszkody statyczne i dynamiczne oraz spełnia kryteria optymalizacji. Problem można podzielić na dwa tryby odnajdywania ścieżki: off-line i on-line. W pierwszym trybie poszukiwanie ścieżki dokonuje się w środowisku stacjonarnym, gdzie uwzględnia się ruch innych obiektów dynamicznych. W trybie on-line planowanie ścieżki wiąże się z ciągłą zmiennością środowiska i nieprzewidywalnością ruchu obcych obiektów. W takim przypadku należy stale monitorować zmiany w środowisku i parametry ruchu obiektów. W wypadku jakiejkolwiek zmian, następuje ponowne wyznaczenie ścieżki w trybie off-line. Celem pracy było zbadanie krzyżowania uśredniającego w ewolucyjnej metodzie poszukiwania ścieżki przejścia. Skupiono się na zagadnieniu planowania bezpiecznej trasy w sytuacji kolizyjnej na morzu. Biorąc pod uwagę ograniczenia stałe (masy lądowe, ograniczenia nawigacyjne, itp.) oraz inne obiekty ruchome (obce statki), problem sprowadzono do zadania optymalizacji dynamicznej z ograniczeniami statycznymi i dynamicznymi [1]. Problem został rozwiązany przy pomocy adaptacyjnej metody ewolucyjnej [2, 3] polegającej na wyznaczaniu optymalnej trasy statku. Bazując na systemie wyznaczania ścieżek przejść Evolutionary Planner/Navigator (EP/N) [4, 5], opracowano zmodyfikowaną wersję systemu (υEP/N++) [6-8], która uwzględnia charakterystykę problemu wyznaczania trasy statku w sytuacji kolizyjnej na morzu. W systemie uwzględniono ograniczenia statyczne jak i dynamiczne. Ograniczenia dynamiczne modelują poruszające się obiekty w tym wypadku inne statki. Artykuł zorganizowano następująco: w punkcie drugim oraz trzecim przedstawiono system planowania ście... więcej»

Efficient neural amplifiers using MOS and MIM capacitors in 180 nm CMOS process (Wzmacniacze sygnałów neurobiologicznych o bardzo małej powierzchni wykorzystujące pojemności MOS i MIM wykonane w technologii CMOS 180 nm) (Piotr Kmon, Paweł Grybos, Robert Szczygieł, Miros Ław Żołądź)
Access to modern technologies made it possible to build minimally invasive monitoring systems for observing electrical activity of specific brain areas. Such systems have already been presented as promising tools in diagnosing, detecting and identifying neural patterns that are specific to behavioral phenomenon [1, 2]. In particular, there is a need to develop brain machine interfaces that could help people suffering from neurological disorders such as blindness, spinal cord injuries, dystonia, tremor, Parkinson’s disease and some of such systems have already been reported [3, 4]. One of the main requirements of such a system is that it should be chronically implantable, occupy small area and have wireless capabilities.The Fig. 1 shows a conceptual scheme of an Integrated Circuit (IC) that can be employed in such a system. It may be built of a multielectrode array (MEA) that have to be bump bonded with an IC. The most popular are MEAs proposed by University of Utah [5] where interelectrode pitch is 400 μm. To satisfy functionality requirements such systems should comprise many operating blocks like recording and stimulating units, data compression, wireless power and data transmission or neural pattern classification. A crucial part of such systems is a neural recording amplifier that have to fulfill strict requirements regarding to the low noise and low power operation. Furthermore, taking into account large functionality of the final system, the recording channel should occupy a small silicon area. Nevertheless, because recording channel should have ability to form a frequency bandwidth in a very broad range (i.e. lower cut-off frequency should be tuned from mHz up to the hundreds of Hz) methods to minimize area occupied by the filters should be introduced. Based on our experience in designing multichannel systems for neurobiology applications [6-8] and in utilizing modern submicron processes [9], we propose to us... więcej»

Paths of the heat flow from semiconductor devices to the surrounding (Drogi przepływu ciepła wydzielanego w elementach półprzewodnikowych do otoczenia) (Krzysztof Górecki, Janusz Zarębski)
One of the main problems restricting the development of the microelectronics is efficient abstraction of the heat generated in the semiconductor structure to the environment [1]. The limited efficiency of practical cooling systems causes that the internal temperature of semiconductor devices increases, attaining often the values considerably differing from the ambient temperature. The device internal temperature rise is a basic factor worsening the reliability of electronic elements and circuits comprising these elements [2]. Therefore, it is so important to develop efficient methods of cooling devices and electronic circuits. Producers of semiconductor devices aim at reducing the thermal resistance between the semiconductor structure and the device case [3]. Therefore, new constructions of cases of semiconductor devices are proposed by producers. For example, in the paper [4] one paid attention to the fact that the admissible value of the temperature of the interior of the low-voltage semiconductor device is limited by the materials applied to the construction of the device case, particularly leadrich solder alloys. The main task of the classical device package is to protect it from corrosion and mechanical hazards and it has to guarantee the possible low value of the thermal resistance between the semiconductor chip and the case surface of the device, typically having an element which makes it possible to join external elements of the heat removing path. Cases of devices have different constructions depending, among others, on the semiconductor chip size, the manner of the device setting-up and the power dissipated into the device. The construction of the case of semiconductor devices is very important, but seldom it has a decisive meaning in the global thermal resistance between the chip structure and the environment. Depending on the applied system of the device cooling it is necessary to take into account thermal propriet... więcej»

Symulacyjne badanie niezawodności jednorodnych systemów technicznych (Zbigniew Wesołowski)
System to wyodrębniony fragment świata rzeczywistego, którego własności i zachodzące w nim zjawiska są przedmiotem badań. Z uwagi na fakt, iż współczesne systemy techniczne znajdują coraz szersze zastosowania w wielu, niejednokrotnie kluczowych, aspektach działalności człowieka, to zagadnieniem o niezwykle istotnym znaczeniu staje się opracowanie wiarygodnej metody oceny ich niezawodności. Stosowanie metod klasycznych [1, 8, 12] należy uznać za niewłaściwe, gdyż wymagają one przeprowadzenia badań statystycznych obejmujących całe systemy. Celem tych badań jest zgromadzenia materiału statystycznego umożliwiającego ocenę miar niezawodności systemów. Ponieważ przeprowadzenie takich badań na współczesnych systemach technicznych jest trudne, a czasami wręcz niemożliwe, to należy opracować nowe metody analizy niezawodnościowej, które nie wymagałyby wykonywania takich badań. Jednym z obiecujących podejść jest metoda symulacyjna [3, 4, 5, 6]. Symulacja komputerowa jest metodą badawczą zapewniającą możliwość efektywnego generowania różnorodnych danych o teoretycznie nieograniczonej objętości. Oprócz tego jest metodą bardzo elastyczną. Eksperymenty symulacyjne mogą być w stosunkowo prosty sposób modyfikowane i wielokrotnie powtarzane, co umożliwia prowadzenie różnorodnych badań analitycznych. Walorów tych nie zapewnia właściwie żadna inna metoda badawcza. Stosowanie tej metody wymaga opracowania modelu niezawodnościowego i modelu symulacyjnego systemu. Wprowadźmy oznaczenia: - zbiór liczb rzeczywistych, - zbiór liczb naturalnych, + = (0,∞) ⊂ , (0,∞) = + U{0}, = - zbiór parametrów czasowych, N(μ,σ2) - rozkład normalny o wartości oczekiwanej μ i wariancji σ2, WN(0, σ2) - szum biały o zerowej wartości oczekiwanej i wariancji σ2, W(α,β) - rozkład Weibulla z parametrem kształtu α i parametrem skali β [9]. Model niezawodnościowy systemu Model niezawodnościowy to przybliżony... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Analiza możliwości wykorzystania siatek długookresowych w strukturach gradientowych światłowodów planarnych (Tomasz Kotyczka, Roman Rogoziński)
Obecnie w przemyśle elektronicznym wraz z dynamicznym rozwojem technologii, obserwować można nieustanne dążenie do miniaturyzacji układów, a tym samym redukcji kosztów ich produkcji. Układy elektroniczne stają się coraz mniejsze, tańsze oraz bardziej energooszczędne. Coraz popularniejsze stają się jednostki zintegrowane, w których poszczególne komponenty urządzenia elektronicznego produkowane są w postaci pojedynczego układu. Podobną tendencję widać w dziedzinie układów optycznych. Z dobrze opanowanymi technologiami produkcji, bazując na materiałach wysokiej jakości, można wytwarzać układy optoelektroniczne z dużą precyzją oraz w sposób wysoce powtarzalny. Urządzenia optyczne w stosunku do swoich elektronicznych odpowiedników charakteryzują się przede wszystkim niewrażliwością na obecność oraz zmiany pola elektrycznego i magnetycznego. Mogą pracować w skrajnie trudnych warunkach, a także często dzięki swojej budowie ich czas życia znacząco się wydłuża. Głównym motorem ciągłego postępu oraz poszukiwania nowych rozwiązań jest potrzeba automatyzacji oraz kontroli i nadzoru wszelkiego rodzaju procesów. Dotyczy to zarówno wszystkich gałęzi przemysłu jak również technologii medycznych gdzie główny nacisk kładzie się na niezawodność oraz precyzję działania. Wszędzie gdzie występują trudne warunki lub wymagana jest nieustanna kontrola projektuje się czujniki, które z duża dokładnością oraz w krótkim czasie pozwolą na detekcję pożądanych parametrów. W raz z rozwojem telekomunikacji znaczącą role zaczęły odgrywać układy wytwarzane bezpośrednio na włóknach. Do przykładów takich rozwiązań należą chociażby lasery światłowodowe [16], pompy optyczne, wszelkiego rodzaju czujniki płynów oraz gazów, a także filtry [3, 5, 6, 13, 15]. Te ostatnie oparte są na siatkach długookresowych LPG (Long Period Fiber Grating) [13]. Umożliwiają one sprzęganie mocy poszczególnych modów propagujących się w światłowodzie. Ze względu jednak na ograniczenia mat... więcej»

Badanie dyspersji chromatycznej serii włókien mikrostrukturalnych o silnie nieliniowych właściwościach do generacji typu supercontinuum (Zbigniew Hołdyński, Michał Szymański, Michał Murawski, Paweł Mergo, Idzi Merta, Małgorzata Gawrońska, Paweł Marć, Leszek R. Jaroszewicz, Tomasz Nasiłowski)
Włókna mikrostrukturalne (MSFs) posiadają niezwykle atrakcyjne własności umożliwiające badanie efektów nieliniowych [1]. Jednym z stosunkowo niedawno odkrytych najbardziej znanych efektów nieliniowych jest proces generacji typu superconinuum. Tego typu generacja została opisana teoretycznie z dodatkowym numerycznym opisem zachodzących zjawisk z uwzględnieniem parametrów geometrycznych włókien [1]. Precyzyjne opracowanie własności dyspersyjnych pozwala na określenie wpływu na poszczególne efekty nieliniowe [13]. Istotna jest możliwość szerokiego przestrajania własności dyspersyjnych w kierunku normalnym lub anomalnym [6, 9, 11]. Tolerancje technologiczne decydują o uzyskiwanych właściwościach dyspersyjnych włókien dlatego muszą spełniać odpowiednie poziomy korelacji z numerycznymi rezultatami w celu zachowania odpowiednich parametrów. Większość prezentowanych dotychczas rezultatów charakteryzacji dyspersji chromatycznej w MSFs dotyczy jednego lub dwóch włókien które są weryfikowane z numerycznymi rezultatami [2, 3, 4, 8, 10, 12, 14]. Wpływ tolerancji technologicznych dla licznych serii włókien nie był obiektem badań. Interferometryczna metoda pozwala na charakteryzację bardzo krótkich odcinków włókien wykorzystywanych do generacji typu supercontinuum z ekstremalną precyzją [3, 12]. W artykule przedstawiamy podstawy zasad charakteryzacji własności dyspersyjnych włókien wraz z eksperymentalnymi rezultatami z wykorzystaniem metody interferometrycznej. W rozdziale drugim prezentujemy rezultaty pomiaru dyspersji chromatycznej oraz numerycznych obliczeń. Wyniki pomiaru dla serii światłowodów o zróżnicowanych parametrach geometrycznych pozwolą na uzyskanie informacji na temat możliwości modyfikacji własności dyspersyjnych. Możliwości sterowania parametrami geometrycznymi wiążą się ze zmianą warunków generacji efektów nieliniowych w tego typu strukturach (rys. 1b). Teoretyczne podstawy charakteryzacji własności dyspersyjnych Dyspe... więcej»

Właściwości modowe światłowodu mikrostrukturalnego z podwójnym płaszczem do zastosowań w nieliniowych układach diagnostycznych (Hanna Stawska, Elżbieta Bereś-Pawlik )
Obecnie wielofotonowe systemy endoskopowe stają się podstawowym narzędziem badawczym, ze względu na zdecydowanie mniejsze rozmiary oraz niższe koszty w porównaniu z konwencjonalnymi mikroskopami wielofotonowymi. Ponadto, endoskopy, ze względu na swój kształt, mogą być wykorzystywane w badaniach in vivo i aplikacjach klinicznych. Tak więc, w ostatnim czasie badania koncentrują się na rozwoju endoskopów o niewielkich wymiarach, które umożliwiają badania in vivo przy jednoczesnym zachowaniu zdolności obrazowania, podobnej do standardowych mikroskopów wielofotonowych. W chwili obecnej, istnieje kilka problemów związanych z budową takich endoskopów a mianowicie[ 1-4]: - skuteczne dostarczenie ultrakrótkich impulsów wzbudzających do próbki, - wydajne zbieranie sygnału fluoroscencyjnego badanej próbki, - miniaturyzacja sondy. Najczęściej stosowana konstrukcja sondy endoskopowej zakłada wykorzystanie światłowodu jednomodowego do dostarczenia ultraszybkiego sygnału pobudzającego, natomiast światłowodu wielomodomowego do odbierania sygnału fluoroscencyjnego z badanej próbki. Konstrukcja ta ma jednak ograniczenia, związane z tym, że światłowód nadawczy nie jest współosiowy z światłowodem odbiorczym, co powoduje zmniejszenie wydajności odbierania sygnału fluorescencyjnego badanej próbki. Aby zwiększyć wydajność odbierania stosuje się układy mikro-elektro -mechaniczne. Jednak takie układy są bardzo wrażliwe na kalibracje oraz zastosowanie ich powoduje zdecydowane zwiększenie wymiarów sondy. Dlatego jako alternatywę do przedstawionych wyżej konstrukcji stosuje się układ wyposażony w światłowód dwupłaszczowy. W tym przypadku, rdzeń tego światłowodu służy do przekazania sygnału wzbudzającego, natomiast wewnętrzny płaszcz służy do odbierania sygnału fluorescencyjnego. Niestety, wszystkie światłowody używane w wyżej wymienionych konstrukcjach charakteryzują się dużą dyspersją w okolicach 100 ps/nmkm. Dlatego też, konstruowane obecnie endos... więcej»

Światłowodowy czujnik temperatury progowej na bazie wypełnionego włókna mikrostrukturalnego (Paweł Marć, Paweł Piliszek, Tomasz Nasiłowski, Michał Murawski, Michał Szymański, Leszek R. Jaroszewicz, Katarzyna Pawlik )
Fotoniczne włókna światłowodowe (PCF) lub inaczej mikrostrukturalne (MSF) są coraz częściej wykorzystywane w telekomunikacji i czujnikach światłowodowych. Możliwość zmiany geometrii otworów wewnętrznych,tworzących mikrostrukturę włókna prowadzącą wiązkę świetlną, pozwala modyfikować jego dyspersję, strukturę modową, dwójłomność czy też nieliniowość, a dzięki tym nowym własnościom stosować je tam gdzie wcześniej nie było to możliwe. Łatwy dostęp do otworów powietrznych pozwala również na wprowadzanie różnego typu materiałów do jego wnętrza. Najczęściej stosowane materiały to polimery [1], ciekłe kryształy [2, 3], specjalizowane ciecze immersyjne [4], ciecze z nanocząstakim [5], czy też złożone substancje organiczne [6]. Wykorzystanie procesu zwilżania kapilarnego jest najczęściej stosowaną techniką wypełniania mikrostruktury włókna [1-6]. Tak przygotowane włókna stają się podstawą konstrukcji różnego typu elementów światłowodowych takich jak przełączniki optyczne, tłumiki optyczne czy też optody czujników chemicznych. W niniejszej pracy do wytworzenia czujnika temperatury progowej wykorzystano komercyjnie dostępne włókno światłowodowe typu LMA10 produkowane przez firmę NKT Photonics [7]. Zostało ono wypełnione substancją organiczną wykorzystując do tego celu wyżej wspomnianą technikę, a optodę czujnika tworzy patchcord światłowodowy zakończony standardowymi złączami FC/PC. Światłowodowy czujnik progowej wartości temperatury Opracowana w Zakładzie Technicznych Zastosowań Fizyki WAT aparatura pozwala na wyp... więcej»

Automatyczny pomiar pojemności złączowej półprzewodnikowego złącza p-n (Ireneusz Brzozowski, Szymon Wawszczak, Piotr Bratek, Andrzej Kos)
Pojemność złączowa (barierowa) jest jednym z ważniejszych parametrów diod półprzewodnikowych, a zwłaszcza w przypadku zastosowania w układach dużej częstotliwości. Pojemność złączowa jako główny parametr zaporowo spolaryzowanego złącza ma również znaczny udział w przypadku poboru energii w układach scalonych [1]. W wielu przypadkach sposobność szybkiego i możliwie dokładnego pomiaru tej pojemności jest nieoceniona. W przypadku warikapów i waraktorów jest to najważniejszy parametr. Co więcej, możliwość uzyskania charakterystyki pojemnościowo- napięciowej może być także bardzo cenna. Ponadto, oprócz wartości pojemności dla konkretnych napięć polaryzujących diodę taka charakterystyka pozwala na wyznaczenie innych ważnych parametrów złącza, np. potencjału barierowego czy profilu domieszkowania. W artykule przedstawiono stanowisko pomiarowe umożliwiające automatyczne wyznaczanie charakterystyk pojemnościowo- napięciowych złączy półprzewodnikowych i na tej podstawie ekstrakcję niektórych parametrów diod. Stanowisko składa się ze specjalnego układu pomiarowego oraz oprzyrządowania kontrolno- pomiarowego, które jest sterowane za pomocą aplikacji napisanej w środowisku LabVIEW, przez magistralę GPIB. W dedykowanym module pomiarowym zastosowano metodę rezonansową pomiaru pojemności. Wybór metody pomiarowej Z pośród wielu metod pomiaru pojemności kondensatorów można wymienić techniczną, mostkową, rezonansową i inne. Nie wszystkie z nich nadają się do zastosowania w przypadku pomiaru pojemności złączowej diody. Niektóre z nich wymagają dobrej liniowości elementu, dużej dobroci lub stałości napięcia do niego przyłożonego [2]. Tymczasem dioda półprzewodnikowa to element nieliniowy, a więc jej parametry zmieniają się wraz z napięciem polaryzującym. W szczególności pojemność złączowa, ale również rezystancja szeregowa, dobroć itd. W związku z tym dla uzyskania dobrej dokładności pomiarów należy zapewnić małą amplitudę składowej zmiennej n... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Moduł czytnika systemu rozproszonej sieci znaczników radiowych wspomagający osoby niewidome w orientacji przestrzennej i w podróżowaniu w mieście (Jacek Blumenfeld, Paweł Poryzała, Tomasz Woźniak, Piotr Skulimowski)
Ludzie niewidomi i słabowidzący stanowią znaczną część naszego społeczeństwa, w Polsce, wg danych Polskiego Związku Niewidomych liczbę osób z dysfunkcją wzroku szacuje się na 80 tysięcy osób [1]. Z roku na rok, wraz z postępem technologicznym, pojawiają się nowe urządzenia elektroniczne wspomagające poruszanie się w środowisku miejskim i wykonywanie różnych codziennych czynności [1, 2]. W Polsce urządzenia zagranicznych producentów nie są ogólnodostępne, a nieliczne polskie produkty mają wysoką cenę i często ograniczoną funkcjonalność. Zaawansowanie technologiczne współczesnych inteligentnych telefonów komórkowych (często określanych spolszczonym terminem "smartfon") powoduje, że mogą one realizować funkcje dotychczas przeznaczone dla specjalistycznych urządzeń wspomagających samodzielne poruszanie się osób niewidomych (np. nawigacja piesza w środowisku miejskim wyposażona w syntezator mowy informujący o położeniu użytkownika). Rynek urządzeń mobilnych oraz systemów operacyjnych przygotowywanych dla mobilnych urządzeń rozwija się bardzo dynamicznie. W większości współczesnych smartfonów ekran dotykowy stanowi jedyną metodę komunikacji z urządzeniem, co stwarza duże trudności dla znacznej grupy osób niewidomych. Osoby te najczęściej wykorzystują telefony z systemem Symbian lub iOS (iPhone). Wiele urządzeń, dzięki funkcjom systemu operacyjnego, bez potrzeby instalacji dodatkowych aplikacji, oferuje funkcje mające na celu ułatwić ich użytkowanie osobom niewidomym. Przykładem takiego systemu jest VoiceOver zintegrowany z platformą iOS. Dla innych platform powstały specjalne systemy udźwiękawiające (tzw. screenreadery) [3]. Obecnie liderem na rynku urządzeń mobilnych jest system operacyjny Android [4], nieco rzadziej wykorzystywany przez osoby niewidome, jednak również na tę platformę stopniowo pojawiają się systemy udźwiękowiające. Przeznaczenie urządzenia Zaprojektowane i wykonane urządzenie przeznaczone jest dla osób niewidom... więcej»

Optoelektronika, komunikacja, multimedia - Wilga 2012 (Ryszard S.Romaniuk)
Światłowody ciekłokrystaliczne, w których rdzeń jest ciekłym kryształem, są przedmiotem badań dla celów budowy fotonicznych komponentów funkcjonalnych kompatybilnych ze standardem jednomodowych światłowodów teletransmisyjnych SM OF. Wartości stałych elastycznych w nematycznych ciekłych kryształach odgrywają rolę w pewnych rozwiązaniach czujników i modulatorów, jak również w elementach fotoniki nieliniowej. Badania nad światłowodami ciekłokrystalicznymi i nieliniową fotoniką są intensywnie prowadzone na Wydziale Fizyki PW (prof. T. Woliński, prof. A. Domański, prof. M. Karpierz). Ciekłe kryształy LC używane w światłowodach i fotonice nieliniowej są: smektykami SLC, nematykami NLC oraz chiralnymi nematykami NLC*. Reorientacja molekuł w odniesieniu do orientacji początkowej jest modyfikowana przez zewnętrzne pole elektryczne. Początkowa konfiguracja w komórkach NLC jest zasadniczo homeotropowa i planarna. W światłowodzie, orientacja względem osi długiej włókna może być: planarna, aksjalna, radialna, poprzeczna oraz mieszana. Podstawowe deformacje komórek NLC, widoczne powyżej pewnego progu oddziaływania pola pobudzającego są: rozpostarcie, skręcenie i zakrzywienie, za co są odpowiedzialne trzy stałe elastyczne: k11 , k22, oraz k33. Współczynnik k11 jest odpowiedzialny za zjawisko Fredericksa. Pomiary tych stałych bazują na zjawisku elektrooptycznym, ale również na metodzie nieliniowej samodyfrakcji, technice z-skanu oraz metodzie całkowicie optycznej. W metodzie samodyfrakcyjnej i teksturze homeotropowej (k33), polaryzacja światła nie jest ważna. W metodzie samodyfrakcyjnej i teksturze planarnej (k22) polaryzacja jest prostopadła do długiej osi molekuł. Metoda pomiaru samo-dyfrakcji stałych elastycznych Franka jest tak dobra jak tradycyjna metoda z zewnętrznym polem elektrycznym. Ciekłe kryształy wykazują anizotropie elektryczną, magnetyczną, optyczną, termiczną i mechaniczną. Powyżej pewnej temperatury progowej anizotropie zan... więcej»

Segmentacja obrazu w fotografii laserowej (Marek Piszczek, Marcin Kowalski)
Systemy wizyjne znajdują coraz szersze zastosowania w różnych dziedzinach gospodarki narodowej, między innymi takich jak na przykład przemysł w zakresie kontroli jakości wytwarzanych produktów, czy też w obszarze szeroko rozumianego bezpieczeństwa publicznego do wykrywania i monitorowania potencjalnych zagrożeń. Sukces tego typu rozwiązań związany jest niewątpliwie z zastosowaniem technologii optoelektronicznych. Mimo tego, że systemy wizyjne mają już ugruntowaną pozycję w licznych aplikacjach, to jednak wciąż poszukuje się nowych rozwiązań, zarówno w zakresie akwizycji jak i przetwarzania danych obrazowych. Efektem tych prac jest niejednokrotnie wzrost potencjału informacyjnego opracowanego systemu wizyjnego. Możliwość pozyskiwania informacji z danych obrazowych uwarunkowana jest jakością obrazu oraz możliwymi do użycia metodami jego przetwarzania. Takim podstawowym zagadnieniem z punktu widzenia przetwarzania obrazu jest jego segmentacja. W zależności od sceny będącej przedmiotem analizy można stosować różne metody, mniej lub bardziej zaawansowane. Faktem jest jednak to, że przetwarzanie tego typu bywa czasami bardzo czasochłonne, a wyniki nie zawsze są zadowalające. Kluczem do sukcesu wydaje się być sam proces pozyskiwania obrazu, który powinien dostarczać do segmentacji "odpowiednio przygotowane dane". I rzeczywiście wiele metod obrazowania stosuje "odpowiednie zabiegi" już na etapie pozyskiwania danych. Gdyby udało się udostępniać do przetwarzania i analizy obrazy posegmentowane już w procesie akwizycji. Metody realizujące taką funkcjonalność dostępne są współcześnie i są szeroko stosowane w przemysłowych systemach wizyjnych, gdzie możemy mieć do czynienia z wysoce kontr... więcej»

Sterowane sygnałem PWM lampy LED jako źródło zakłóceń układów podczerwieni (Jacek Chęciński, Zdzisław Filus)
Coraz więcej współcześnie budowanych obiektów użyteczności publicznej (kina, hale sportowe, hotele, biurowce) wyposażonych jest w instalację oświetleniową wykorzystującą diody LED. Bardzo często jest to już tzw. oświetlenie główne. Przemawia za tym wiele zalet lamp LED - przede wszystkim wysoka skuteczność świetlna (ponad 100 lm/W), wysoka niezawodność (diody nie przepalają się gwałtownie jak inne źródła światła, tylko stopniowo obniżają swoją emisję) oraz duże możliwości sterowania natężeniem oświetlenia np. poprzez wysokosprawne układy z modulacją PWM. Obecnie wysiłki producentów diod świecących skupiają się już nie tylko na uzyskaniu coraz wyższej skuteczności świetlnej, lecz w równym stopniu starania te dotyczą też zapewnienia "wysokiej jakości" światła białego. Diody LED stosowane w oświetleniu powinny emitować światło białe o widmie ciągłym i możliwie wysokim współczynniku oddawania barw (Ra). Budowa fizyczna takiej diody przedstawia się następująco: kryształ półprzewodnika emitujący monochromatyczne światło niebieskie (o długości fali ok. 450 nm) zatopiony jest w warstwie luminoforu, który pobudzany światłem niebieskim emituje światło żółtopomarańczowe o szerokim widmie. Odpowiedni skład chemiczny luminoforu oraz proporcje światła niebieskiego częściowo przenikającego przez luminofor i żółtopomarańczowego emitowanego przez luminofor, pozwalają uzyskać światło białe tzw. zimne, neutralne lub ciepłe. Wykorzystane do oświetlenia pomieszczeń diody LED generują zwykle światło białe neutralne, odpowiadające temperaturze barwowej od 4000 do 5500K lub światło białe ciepłe (2700…4000K) [1]. Tego typu instalacja oświetleniowa sterowana jest najczęściej poprzez automatykę budynku, np. inteligentne systemy sterowania typu KNX/EIB lub DALI, która umożliwia liniową regulację natężenia światła w zakresie 0-100%. Zastosowane w roli ściemniaczy układy mocy PWM umożliwiają płynną regulację poziomu oświetlania, zachowując równocze... więcej»

Realizacja nieliniowego ortogonalnego filtru klasy Volterry-Wienera na platformie wieloprocesorowej (Paweł Biernacki)
Rozpatrując wzór opisujący działanie nieliniowego ortogonalnego filtru parametryzującego klasy Volterry-Wienera [3]:gdzie x ρi są uogólnionymi (wielowymiarowymi) współczynnikami Fouriera (Schura) sygnału y(k) [6], łatwo zauważyć, iż parametrami jakie stanowią o złożoności filtru są: rząd filtru N (pamięciowość filtru) oraz stopień nieliniowości filtru M. Zwiększenie któregokolwiek z nich pociąga za sobą szybki wzrost nakładu obliczeniowego potrzebnego do wyznaczenia sygnału y(k). Liczba rotorów w bloku dekorelującym, dla przypadku niestacjonarnego wyrażona jest wzorem: (2) Rysunek 1 pokazuje jak szybko rośnie wartość wyrażenia (2) przy zmianie N lub M.     - L =0 N =0 N =i N =i ,..., i y(k )= ρ x +...+ ... ρx i1 i1 i2 1 iM M 1 ki1 M x ki1 x i1 Filtr ten może działać w trybie off-line i on-line. W pierwszym przypadku w jednym momencie czasu na wszystkich wejściach pojawiają się odpowiednie sygnały wejściowe w postaci wektorów próbek. Każda sekcja filtru (rotor) jest wykorzystana tylko jeden raz w procesie filtracji. Takie działanie filtru wykorzystują procedury parametryzacji sygnału, ekstrakcji... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Tlenki dielektryczne wytwarzane metodą osadzania warstw atomowych w niskich temperaturach dla zastosowań w elektronice jako izolatory (Sylwia Gierałtowska, Łukasz Wachnicki, Bartłomiej S. Witkowski, Marek Godlewski, Elżbieta Guziewicz )
Omawiane w niniejszej pracy tlenki o wysokiej stałej dielektrycznej (w porównaniu do stałej dielektrycznej dwutlenku krzemu, SiO2 czyli powyżej 4) cieszą się rosnącym zainteresowaniem w mikroelektronice, w szczególności w elektronice przezroczystej [1-8]. Właściwości tych materiałów sprawiły, iż stały się one doskonałą alternatywą dla SiO2 w produkcji nowej generacji układów scalonych w standardzie technologicznym 45 nm. Powodem tej zamiany był niepokojący wzrost prądu upływu przez cienką warstwę tlenku podbramkowego (SiO2), który przekraczał 1 A/cm2 przy 1 V [8]. Graniczna wartość prądu upływu przy wytwarzaniu układów scalonych w technologii CMOS wynosi 1,5*10-2 A/cm2 przy 1 V, natomiast w pamięciach operacyjnych DRAM - 10-7 A/cm2 przy 1 V [8, 10]. Wprowadzenie dielektryków "high-k" do produkcji urządzeń elektronicznych w 2007 roku określa się jako najważniejszą zmianę w technologii tranzystorowej od końca lat sześćdziesiątych i jest jedną z kilku strategii opracowanych w celu umożliwienia dalszej miniaturyzacji elementów elektronicznych, potocznie określaną jako rozszerzenie prawa Moore’a [9]. Rewolucyjny postęp w miniaturyzacji i wprowadzenie do produkcji trzech nowych generacji układów scalonych w standardach 45 nm, 32 nm oraz najnowszym 22 nm, stało się możliwe dzięki wykorzystaniu technologii osadzania cienkich warstw do wytwarzania tlenków izolacyjnych. Metoda ALD została wprowadzona w latach siedemdziesiątych przez dr Tuomo Suntolę w Finlandii celem poprawienia jakości warstw siarczku cynku (ZnS) używanych w wyświetlaczach elektroluminescencyjnych [11]. Technologia ta zapewnia jednorodne pokrycie dużych powierzchni, kontrolowany wzrost w skali nanometrowej, osadzanie warstw w niskiej temperaturze. Wspomniane właściwości techniki osadzania cienkich warstw sprawiają, iż bardzo dobrze nadaje się ona do osadzania przezroczystych, izolujących oraz półprzewodnikowych warstw do produkcji urządzeń elektronicznych. Najn... więcej»

Badania rezystywności dielektromagnetyków w atmosferze ciekłego azotu (Dariusz Kapelski, Marcin Karbowiak, Barbara Ślusarek, Bartosz Jankowski, Marek Przybylski)
Obszar zastosowań maszyn elektrycznych ciągle się rozszerza. Nowym obszarem, którym zainteresowany jest rynek elektrotechniczny, są maszyny elektryczne pracujące w temperaturach ujemnych, a nawet w temperaturach ciekłego azotu lub ciekłego helu. Właściwości fizyczne materiałów, w tym materiałów magnetycznych, zmieniają się wraz ze zmianą temperatury otoczenia. W związku z tym zmieniają się też parametry eksploatacyjne maszyn elektrycznych. Zainteresowanie rynku wytwarzaniem maszyn elektrycznych do pracy w temperaturze ciekłego azotu spowodowało konieczność prowadzenia takich badań. Badania właściwości fizycznych materiałów magnetycznych w temperaturach ciekłego azotu, stworzą bazę wiedzy dla projektantów maszyn elektrycznych przeznaczonych do pracy w niskich temperaturach [1, 4]. Jednym z podstawowych parametrów materiałów konstrukcyjnych jest ich rezystywność. Rezystywność jest wielkością zależną od temperatury. Opór właściwy metali przy spadku temperatury maleje, w różnym stopniu dla różnych metali. Wartość oporu właściwego metali w bardzo niskich temperaturach zależy w dużym stopniu od jego czystości [2]. Rezystywność dielektromagnetyków ma wpływ na wielkość strat wiroprądowych, czyli pośrednio na sumę strat w obwodzie magnetycznym. Straty wiroprądowe wydzielające się w postaci ciepła w ferromagnetykach, określa zależność: (1) gdzie: kw - współczynnik geometryczny; f - częstotliwość [Hz]; Bmax - maksymalna indukcji magnetyczna [T], ρ - rezystywność [Ωm] [4]. Materiałami magnetycznie miękkimi, stosowanymi jako obwody magnetyczne maszyn elektrycznych, są coraz częściej kompozyty proszkowe. Wytwarza się je metodą spajania proszków żelaza tworzywem. Materiały kompozytowe na bazie żelaza składają się z ziaren żelaza i cienkiej warstwy izolacyjnej na ich powierzchni. Stosuje się dwie podstawowe grupy środków izolująco- w... więcej»

Mikro- i nanostruktury krzemowe jako materiał termoelektryczny (Marcin Turczyński, Zbigniew Lisik)
Pierwsze generatory o mocy rzędu kilku kilowatów zostały zaprezentowane przez rosyjskich i amerykańskich naukowców w latach 50. XX wieku i znalazły zastosowanie w misjach kosmicznych. Obecnie generacja termoelektryczna skupiona jest na odzyskiwaniu energii cieplnej traconej podczas wielu procesów technologicznych, a najczęściej stosowanym materiałem do budowy elementów termoelektrycznych jest BiTe oraz jego stopy (np. z antymonem czy selenem). Niestety sprawność generatorów budowanych z tych materiałów nie przekracza 5%, a jedną z ich największych wad jest niska maksymalna temperatura pracy wynosząca 300°C. Maksymalna moc dla elementów typu n oraz typu p jest osiągana przy 100°C. Materiał ten jest także zbyt drogi by budowa termogeneratorów na dużą skalę była opłacalna, dlatego ogólnodostępny krzem może stać się rozwiązaniem wyżej opisanego problemu. Krzem jest wykorzystywany od wielu lat do budowy praktycznie każdego urządzenia elektronicznego co powoduje, że technologia jego wytwarzania jest doskonale opanowana, a jego koszt produkcji jest relatywnie niski. Co więcej, krzem charakteryzuje się dobrymi właściwościami elektrycznymi takimi jak współczynnik Seebeck’a oraz przewodność elektryczna, które są składowymi współczynnika efektywności ZT = α2δT/λ, gdzie α - współczynnik Seebeck’a, δ - przewodność elektryczna, λ - przewodność cieplna, T - temperatura bezwzględna. Niestety, dużą jego wadą jest wysoka przewodność cieplna λ, która także jest częścią parametru ZT i jest około sto razy większa niż dla BiTe (porównanie właściwości termoelektrycznych zostało przedstawione w tabeli). Przewodność cieplna jest sumą dwóch przewodności składowych λ = λ l + λ e, sieciowej oraz elektronowej. Pierwsza z nich związana jest z budową krystalograficzną, w której ciepło przewodzą fonony, w drugiej natomiast odpowiedzialne są za to elektrony. Porównanie właściwości termoelektryczny... więcej»

Test stabilografii nadążnej (Zenon Kidoń, Jerzy Fiołka)
Do oceny stabilności układu utrzymywania równowagi człowieka powszechnie wykorzystuje się stabilografię statyczną. Podstawowym narzędziem stosowanym w tej metodzie jest platforma stabilograficzna wraz ze specjalnym oprogramowaniem. Za jej pomocą rejestrowany jest sygnał stabilograficzny opisujący zmiany położenia w czasie punktu przyłożenia wypadkowej sił nacisku na płaszczyznę platformy, tzw. punkt COP, (ang. Center of Pressure) [1]. W czasie badania, które trwa zwykle 30…60 sekund, pacjent proszony jest o możliwie najlepsze utrzymywanie równowagi w pozycji stojącej. Wyróżnia się przy tym wariant z oczami otwartymi i zamkniętymi. Po otrzymaniu tych wskazówek następuje rejestracja sygnału [2]. Uzyskana w ten sposób trajektoria zawiera informację o sprawności całego układu utrzymywania równowagi, jak i jego poszczególnych składowych (na przykład: ośrodkowego układu nerwowego czy błędnika). Ponadto, rozwijaną w ostatnich latach dziedziną zastosowań stabilografii jest diagnozowanie oraz ocena postępów w rehabilitacji wad postawy oraz uszkodzeń układu mięśniowo-kostnego, zwłaszcza dolnej partii ciała człowieka [3]. Nowe możliwości w zakresie zastosowań stabilografii statycznej w diagnostyce medycznej i rehabilitacji stwarza wprowadzenie biologicznego sprzężenia zwrotnego do schematu badań. W tym przypadku, stanowisko do badań uzupełnione jest o dodatkowy monitor komputerowy. Ekran ten - umieszczony na wysokości wzroku pacjenta - służy do wyświetlania bodźca wzrokowego. Zadaniem pacjenta jest wówczas takie przemieszczanie własnego punktu COP (wyświetlanego również na ekranie), aby nadążał on za poruszającym się bodźcem bez odrywania stóp od płaszczyzny platformy. Koncepcja ta znacząco zwiększa możliwości diagnostyczne. Może być także stosowana w procesie rehabilitacji układu kostno-mięśniowego dolnej partii ciała. Prace w tym drugim zakresie prowadzone są od kilku lat w Instytucie Elektroniki Politechniki Śląskiej [4]. Stan... więcej»

Nowe źródła pojedynczych fotonów dla kryptografii kwantowej (Wojciech Nowakowski )
Kryptografia kwantowa teoretycznie jest bezpieczna, co wynika z samych praw mechaniki kwantowej [1, 2], ponieważ każda próba podsłuchania sygnału wprowadza zmiany tego sygnału, co informuje komunikujące się strony o ingerencji. W praktyce jednak współczesne, nawet komercyjne systemy kryptografii kwantowej są niedoskonałe, gdyż występuje wiele problemów implementacyjnych i technicznych [3]. Praktyczne wykorzystanie tej, teoretycznie doskonałej metody szyfrowania transmisji danych jest więc bardzo ograniczone, właściwie do urządzeń demonstracyjnych lub krótkich łączy specjalnie chronionych, np. na terenie jednej instytucji. Złośliwi twierdzą nawet, że kryptografia kwantowa do doskonały "temat wieczny", bo bardzo nośny i nowoczesny, ale od lat nie przynoszący żadnych realnych korzyści. Główne problemy to tanie i efektywne źródło strumienia pojedynczych fotonów o dostatecznej energii oraz ich poprawna technicznie, skuteczna detekcja. Wykazano np. [3], że po stronie detekcji sygnału łatwo jest oślepić fotopowielacz i stworzyć tym samym warunki niedostrzegalnego podsłuchu. Z problemem generacji fotonów jest jeszcze gorzej. Nie mamy dobrych źródeł pojedynczych fotonów, a jest to zagadnienie dla kwantowej kryptografii zupełnie fundamentalne: gdy wygenerujemy zamiast pojedynczego choćby dwa fotony, przejęcie jednego z nich (a zatem zmiana jego parametrów) może zostać niezauważona, gdyż tę samą informację niosą obydwa; drugi jest poprawny. Stosowane są różne metody zapobiegania wysyłaniu zwielokrotnionych fotonów. Jednym ze sposobów jest użycie bardzo... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Wykorzystanie technologii organicznych diod elektroluminescencyjnych do budowy źródeł światła (Grażyna Kozioł, Kamil Janeczek, Aneta Araźna, Konrad Futera, Wojciech Stęplewski)
Diody OLED (Organic Light Emitting Diode) są nowatorskimi przyrządami elektronicznymi, formowanymi na bazie cienkich warstw organicznych o grubości około 100 nm. Ten stosunek wymiarów powoduje, że uważa się je praktycznie za przyrządy dwuwymiarowe. Diody OLED będą pracować przy bardzo niskich napięciach rzędu 3…5 V. Dlatego wprowadzenie diod OLED jako źródeł światła w zastosowaniach dotyczących powszechnego oświetlenia ma znaczenie rewolucyjne i spowoduje zasadnicze przesunięcie nadrzędnych priorytetów w przemyśle oświetleniowym. Budowa OLED Intensywne prace badawcze dotyczące materiałów, procesów i konstrukcji diod emitujących światło, zbudowanych z organicznych warstw półprzewodnikowych rozpoczęto kilka lat temu. Jeszcze stosunkowo niedawno wydawało się, że białe półprzewodnikowe diody elektroluminescencyjne LED były najwyższym osiągnięciem w tym obszarze. Przeszkodą w ich upowszechnianiu stają się nie tylko wysoki koszt produkcji, ale także ograniczenia technologiczne związane z materiałami nieorganicznymi (m.in. problemy z dalszą miniaturyzacją). Obecnie naukowcy kierują swoją uwagę w stronę materiałów organicznych. W odróżnieniu od elektroniki tradycyjnej, w której ze względu na kolektywny charakter zjawisk elementy aktywne nie mogą mieć rozmiarów atomowych, w elektronice organicznej można operować nawet na pojedynczych cząsteczkach. Chemia organiczna pozwala na realizację zamówień na materiały funkcjonalne, które są złożone z cząsteczek zaprojektowanych i przeznaczonych do wykonywania określonych funkcji. W rezultacie będzie można wykonywać, dzięki organicznym diodom luminescencyjnym OLED, nowatorskie źródła światła bardziej energetycznie efektywne niż istniejące obecnie źródła światła. Dioda OLED jest przyrządem bazującym na konwersji energii (przemiana prądu elektrycznego na światło). Jest bardzo cienka, o dużej powierzchni i praktycznie można ją uważać za przyrząd dwuwymiarowy. Zbudowana jest z materiałów pod... więcej»

Integracja elementów pojemnościowych z płytką obwodu drukowanego (Wojciech Stęplewski, Grażyna Kozioł, Tomasz Serzysko, Kamil Janeczek, Aneta Araźna)
Od wielu lat w różnych światowych ośrodkach badawczych prowadzone są prace mające na celu opracowanie technologii wbudowywania elementów biernych wewnątrz płytki obwodu drukowanego w procesie jej produkcji. Elementy bierne są niezbędne w każdym układzie elektronicznym, a w wielu wypadkach stanowią znaczną jego cześć. Ich udział w wyrobach elektronicznych stale rośnie i chociaż wymiary tych podzespołów ulegają ciągłemu zmniejszaniu, to otaczająca je powierzchnia nie może być dalej zmniejszana z powodów ograniczeń narzuconych przez urządzenia montażowe oraz wymagania procesu lutowania. Idea upakowania większej liczby podzespołów na płytce obwodu drukowanego przez wprowadzenie nowych technologii wbudowywania elementów biernych wewnątrz płytki staje się obecnie dla producentów nowoczesnego sprzętu koniecznością. Koncepcja wbudowywania elementów pasywnych, w tym kondensatorów, do wnętrza płytki obwodu drukowanego powstała już wiele lat temu. Pierwsze próby z wbudowywaniem kondensatorów rozpoczęto jeszcze pod koniec lat sześćdziesiątych ubiegłego wieku [1]. Do tej pory powstało wiele materiałów, które mogą być wykorzystywane na kondensatory, jednak technologia ta wykorzystywana jest w niewielkim stopniu najczęściej w zastosowaniach wojskowych i elektronice lotniczej, w tym również elektronice używanej w przestrzeni kosmicznej. W ostatnich latach wielki wzrost zapotrzebowania na wysoko zaawansowane, a jednocześnie tanie urządzenia elektroniczne, takie jak telefony komórkowe, laptopy, urządzenia sieciowe itp. spowodował szerokie zainteresowanie nowymi technologiami, w tym technologiami elementów biernych wbudowanych. Można zauważyć trend w rozwoju płytek obwodów drukowanych, który zmierza do jak największej integracji z nią elementów elektronicznych. Materiały i konstrukcje wbudowanych kondensatorów planarnych Obecnie na rynku dostępnych jest wiele materiałów przeznaczonych do wytwarzania kondensatorów wbudowanych. Coraz więcej fi... więcej»

Układy przetwarzania sygnałów wyjściowych przetworników bezrdzeniowych o małym poziomie szumów własnych (Aleksander Lisowiec )
Bezrdzeniowe przetworniki pola magnetycznego działające na zasadzie cewki Rogowskiego charakteryzują się doskonałą liniowością w bardzo szerokim zakresie mierzonego prądu. Od dołu zakres pomiarowy jest ograniczony szumami termicznymi rezystancji własnej przetwornika, a od góry napięciem przebicia między zwojami jego cewki. Schemat zastępczy bezrdzeniowego przetwornika pola magnetycznego, zwanego dalej przetwornikiem, przedstawiono na rys. 1. Napięcie pomiarowe Up przetwornika jest proporcjonalne do indukcyjności wzajemnej M cewki przetwornika oraz do pochodnej mierzonego prądu. Indukcyjność wzajemna M jest zależna od parametrów geometrycznych cewki tworzącej przetwornik. Dla prądu sinusoidalnego i (t ) = sin(2 ⋅ π ⋅ f ⋅ t) płynącego w obwodzie pierwotnym przetwornika zachodzi Up(t ) = M ⋅ 2 ⋅ π ⋅ f ⋅ i (t). Iloraz Up(t )/ i (t ), równy 100 ⋅ π ⋅ M dla f = 50 Hz, jest nazywany czułością przetwornika i mówi on, jaka jest wartość RMS napięcia Up dla prądu sinusoidalnego o wartości 1 ARMS płynącego w obwodzie pierwotnym cewki przetwornika. Napięcie na wyjściu przetwornika obciążonego rezystancją Robc wyraża się równaniem: (1) gdzie: (2) F( f ) R R R U U obc obc p o ⋅ + = 2 0 2 0 2 0 ( ) ( ) j f Q f j f f F f f + ⋅ ⋅ + ⋅ = Rys. 1. Elektryczny układ zastępczy bezrdzeniowego przetwornika prądowego Fig. 1. Electrical equivalent circuit of an air core current transducer Up=M(di/dt) L R eR C Robc Uo 92 Elektronika 8/2012 jest charakterystyką częstotliwościową przetwornika [1]. Dla typowych konstrukcji przetwornika charakterystyka częstotliwościowa jest płaska do wartości co najmniej 10 kHz. Właściwości szumowe przetwornika Wartość skuteczna szumów termicznych rezystancji R wyraża się zależnością: (3) gdzie T jest temperaturą w Kelvinach, kB = 1,380658(12) ⋅10-23 J·... więcej»

Zastosowanie Virtual Network Computing do zdalnego wsparcia technicznego i diagnozowania urządzeń opartych na sterowniku klasy PC (MARIUSZ SETA)
Podczas procesu wdrażania urządzeń wytwarzanych na zamówienie klienta dużą rolę odgrywa możliwość szybkiego reagowania na zmieniające się potrzeby zamawiającego. W wielu przypadkach po dostarczeniu urządzenia zachodzi potrzeba dokonania modyfikacji oprogramowania sterującego procesem produkcji, której celem jest usprawnienie tego procesu. Jednym z narzędzi, które mogą być przydatne jest oprogramowanie oparte o protokół VNC (Virtual Network Computing). Umożliwia ono zdalną pracę na innym komputerze podłączonym do sieci. Istnieje wiele aplikacji wykorzystujących protokół VNC. Są to m.in. RealVNC, TightVNC, UltraVNC. Ze względu na ilość dostępnych opcji oraz licencję GNU GPL umożliwiającą bezpłatne wykorzystanie w zastosowaniach komercyjnych zostanie dokładniej przedstawiony program UltraVNC. Oprogramowanie to pracuje w architekturze klient-serwer, gdzie serwerem jest komputer udostępniający swój pulpit. Rolę zdalnej konsoli pełni składnik oprogramowania VNCviewer, przy użyciu którego zarządzany jest serwer VNC. Standardowo VNCviewer łączy się z serwerem poprzez port TCP 5900. Uwierzytelnienie użytkownika podłączającego się do zarządzanej stacji może się odbywać na 3 sposoby: ● VNC Password - od użytkownika zdalnej konsoli wymagane jest podanie hasła zdefiniowanego podczas konfiguracji serwera VNC, ● MS Logon - metoda umożliwiająca uw... więcej»

Wybrane problemy pozycjonowania detali przy użyciu inspekcji wizyjnej na przykładzie automatycznego systemu kontroli filtrów SKF-11 (Marcin Karliński, Jerzy Zając)
Zasadniczym elementem machatronicznym systemu kontroli filtrów SKF-11 jest podajnik obrotowy wyposażony w 24 gniazda pomiarowo- ransportowe. Detale umieszczane są przez operatora na podajniku taśmowym i przemieszczane w kierunku pola działania robota wejściowego. Na rys. 1 pokazane jest urządzenie SKF-11.Pojawiające się w strefie działania robota detale poddawane są inspekcji wizyjnej przy pomocy umieszczonej nad podajnikiem kamery pozycjonowania XY. Filtry pobierane są przez robota i umieszczane w gnieździe wejściowym podajnika obrotowego. W trakcie cyklu kontrolnego przemieszczane są na kolejne pozycje pomiarowe, a w fazie końcowej segregowane przez robota toru wyjściowego. Detale sklasyfikowane jako dobre umieszczane są na transporterze wyjściowym i znakowane przy pomocy tamponiarki. Podsystem inspekcji wizyjnej w torze wejściowym System analizy obrazu toru wejściowego (rys. 2) składa się z kamery obrazującej detal w rzucie poziomym (kamera 1) oraz kamery obserwującej filtr w rzucie bocznym (kamera 2), w celu identyfikacji kąta obrotu. W zależności od rodzaju identyfikowanego filtra inspekcja wizyjna odbywa się w jednym lub dwóch rzutach. Rys. 2. Systemy inspekcji wizyjnej toru wejściowego Fig. 2. Input line vision inspection system Kamera 1 Kamera 2 Rys. 3. Lokalizacja robota załadowczego w torze wejściowym urządzenia SKF-11 Fig. 3. Loading robot localization on SKF-11 device input line Elektronika 8/2012 10... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Rozwój badań i innowacji w Polsce (Marek Hołyński )
Struktura prac badawczych i rozwojowych, odziedziczona po systemie socjalistycznym, charakteryzowała się znacznym stopniem rozdrobnienia, zarówno organizacyjnym, jak i tematycznym. Prace badawcze, głównie poznawcze, prowadzone były zarówno przez przemysłowe ośrodki badawczo-rozwojowe, jak i instytuty Polskiej Akademii Nauk, a także uczelnie wyższe. Były one finansowane głównie z budżetu państwa w formie dotacji. Udział firm prywatnych był znikomy. Zbyt mało uwagi zwracano przy tym na praktyczne rezultaty badań. Nowe wyzwania globalizacji, członkostwo Polski w Unii Europejskiej i zmiany w hierarchii celów związane z funkcjonowaniem nauki w nowych warunkach, doprowadziły do wielu zmian w tym systemie. Odpowiedzialność za zarządzanie projektami została przeniesiona do dwóch nowo utworzonych instytucji - Narodowego Centrum Nauki i Narodowego Centrum Badań i Rozwoju. Narodowe Centrum Nauki (NCN) okresowo ogłasza konkursy i zaprasza do składania wniosków dotyczących badaniach podstawowych. Oferuje dotacje do projektów badawczych, w tym finansowania zakupu lub wytworzenia aparatury badawczej, koniecznej do tych badań. NCN oferuje także finansowanie prac badawczych młodych pracowników nauki, którzy jeszcze nie uzyskali stopnia doktora nauk lub tych, którzy uzyskali go niedawno. Głównym zadaniem Narodowego Centrum Badań i Rozwoju (NCBiR) jest zarządzanie i wdrażanie strategicznych programów prac ba... więcej»

Behavioural modelling of dynamic frequency scaling with prediction of the integrated circuit temperature (MACIEJ FRANKIEWICZ, ANDRZEJ KOS)
Considering the aspiration to make modern digital circuits faster and scaling down the technology the researchers must take into account thermal effects [3]. The goal is to find the trade off between keeping the throughput of the system on the possible maximum level and decreasing the power consumption of the device. Assuming that circuit cannot exceed acceptable maximum temperature for proper work it should be controlled in the way keeping its temperature as close to the permissible limit as possible with minimal fluctuations. To achieve that some dynamic control systems have been developed including: Dynamic Voltage Scaling (DVS) - scaling the supply voltage, Dynamic Clock Throttling (DCT) - shutting off the clock when overheating and Dynamic Frequency Scaling (DFS) - scaling clock frequency, which are often combined [4]. Idea of frequency control origins from the fact that circuit working with higher frequency consumes more power. In order to cool it down it has to be slowed down. When the chip returns to safe temperature range it can work faster again. This frequency- temperature feedback can be used to stabilize the temperature and ensure safe work of the circuit. Despite former achievements on the field some further investigations must be done to improve thermal behaviour of the circuit and find the optimal control system [5]. Popular electronic simulators are not suitable for thermal transient simulations of electronic circuits. That causes the need to create an environment in which temperature of the circuit can be examined. Presented MATLAB models have been created to verify several different implementations of the dynamic frequency control systems before fabrication of the ASIC (Application Specified Integrated Circuit). In addition Predictive Frequency Scaling (PFS) method which is based on DFS and DCT but predicts changes in temperature in nearest future will be introduced and its advantages will be motivated [1]... więcej»

A new approach to microwave absorbers (Marzena Olszewska, Wojciech Gwarek )
A growing interest in reducing reflections from scattering objects as well as radiation produced by electronic devices has resulted in several developments of microwave absorbers. One popular approach is a Salisbury screen [1-3]. Its major advantage comes from structural simplicity. The screen consists of a thin resistive sheet of a surface resistivity (as defined in [4]) of 377 Ω/sq., separated from a perfectly conducting surface (PEC) by a lossless dielectric spacer. The thickness of the dielectric spacer is equal to a quarter wavelength, at the frequency desired to be absorbed. Due to impedance transformation, a short circuit is transformed to an open circuit and the input impedance of the overall screen becomes equal to the impedance of the resistive sheet. Thus, the screen become quasi-matched to the free space, what facilitates dissipation of the incoming power in the resistive sheet. Salisbury screens are often characterised by very good absorbing properties like shown in [3, 5], however, due to the spacing requirement they are narrow-band solutions of non-negligible thickness. A lot of attention has been put to improve the Salisbury screen EMC performance. Two main directions of the studies, which are often self-contradictory, can be distinguished: increasing the screen bandwidth [1-3, 5, 12, 13] or decreasing the screen thickness [14-21]. The first research stream focuses on increasing the bandwidth of the screen. In [1] the inversely proportional dependence of the absorber bandwidth on the relative permittivity of the dielectric spacer has been presented. This relation can be impose to designing the absorbing structures with wide operating bandwidth. Another approach consists in building multilayer screens for bandwidth enhancement. The background for designing multilayer Sali... więcej»

Microwave filter tuning using coarse set of reflection characteristics and corresponding tuning elements deviations (TOMASZ KACMAJOR, JERZY JULIAN MICHALSKI)
Filter tuning is the last process in filter production line. After assembling a device, due to its imperfections, there is a need to properly adjust tuning elements to meet all technical specifications. It is a well-known problem and results in serious bottleneck during production. Tuning is performed manually by observing scattering characteristics and trying to obtain required shape by changing positions of tuning screws. Depending on filter complexity and operator’s experience, this process may vary from 15 minutes to a few hours. That is why many works have investigated this issue, trying to make the tuning faster, easier or to automate the whole process. Recently, we have proposed tuning methods based on mapping of filter characteristic to the deviation of tuning elements responsible for detuning. This mapping is performed with the use of artificial neural network (ANN) multidimensional approximator [1], neuro-fuzzy system [2] or linear matrix operator [3]. Tuned filter is treated as a “black-box" as we are not involved in, e.g., coupling matrix extraction as proposed in [5]. The approximators prepared in our methods work as follows: when the detuned characteristic is supplied at the input, the approximator generates, at its output, these values of tuning elements which are responsible for filter detuning. Therefore, operator or robot knows which screw must be adjusted in which direction and value. This general concept is depicted in Fig.1. Above-mentioned methods have been proved to tune most of modern microwave filters. But there is a room to enhance the concept. To build these approximators a set of elements {Δz, s} containing tuning deviations and corresponding characteristics is collected in the process of controlled random filter detuning. This process takes a long time and requires a lot of {Δz, s} pairs. In practice it is done by robots and could be successfully performed for filters equippe... więcej»

Optymalizacja konstrukcji militarnych urządzeń zasilanych energią fotowoltaiczną (Dawid Stoga, Marcin Szczepaniak, Stanisław Maleczek)
Systemy fotowoltaiczne stanowią obecnie coraz większy udział w produkcji energii elektrycznej [1]. Są coraz częściej wykorzystywane w urządzeniach przenośnych małej i średniej mocy. Systemy te znajdują swoje miejsce w zastosowaniach specjalnych takich jak wojsko, wykorzystując zalety związane z niewyczerpalnym źródłem energii, cichą i bezobsługową pracą. W przeciwieństwie do stacjonarnych cywilnych systemów, urządzenia militarne wykorzystujące baterie fotowoltaiczne muszą być przystosowane do surowych wymogów wojskowych, które związane są z ich bezpośrednim przeznaczeniem, charakterem i miejscem pracy. Kryteriów tych nie można pominąć podczas projektowania urządzeń, bowiem wpływają bezpośrednio na rodzaj i ilość zastosowanych paneli PV, jak i elementów współpracujących. Bazując na doświadczeniu przy tworzeniu tego typu urządzeń dla potrzeb Polskiej Armii przez WITI przy współpracy z IMIM PAN oraz WZŁ Nr 2 określono główne zagadnienia związane z dostosowaniem konstrukcji przyszłych urządzeń fotowoltaicznych do warunków pracy. Stworzone prototypowe systemy obejmowały (rys. 1): stanowisko kamery obserwacyjnej zestaw zasilania dla pojedynczego żołnierza, zasilania dla wozów bojowych, przewoźny system elektrowni polowej [2]. Pracują one w trybie awaryjnego lub wspomagającego zasilania dla zastosowania na obszarze Polski. Poniżej przedstawiono podsumowanie badań oraz perspektywy rozwoju z ukierunkowaniem na optymalizację konstrukcji w zależności m.in. od wymaganej mocy, zastosowania, waru... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Zasady wyznaczania wyników pomiarów pośrednich wieloparametrowych – w zarysie (ZYGMUNT LECH WARSZA)
We wszystkich dyscyplinach naukowych opartych na eksperymencie, w przemyśle i w innych dziedzinach gospodarki coraz więcej pozyskuje się, przetwarza i wykorzystuje wyniki pomiarów wieloparametrowych (multivariate), czyli wykonuje się pomiary pośrednie multimenzurandu. W szczególności mierzy się równocześnie sygnały wyjściowe wielu jedno- lub wieloparametrowych czujników. Sygnały te podlegają rozrzutom losowym i mogą być ze sobą w różny sposób skojarzone deterministycznie i statystycznie poprzez obiekt badany, system pomiarowy i oddziaływania zewnętrzne. Z próbek pomiarowych wyznacza się estymatory wartości, niepewności i współczynników korelacji wielkości mierzonych pośrednio. Zaokrąglanie i przetwarzanie wyników pomiarów wieloparametrowych i prezentacja ich danych cyfrowych dokonywana jest obecnie dość dowolnie, gdyż przepisy metrologiczne nie są w stanie nadążyć za zróżnicowanymi w różnych dziedzinach potrzebami techniki pomiarowej. Międzynarodowy przewodnik o wyrażaniu niepewności pomiarów GUM [1] oraz poradnik NASA [2] zawierają zalecenia głównie dla szacowania wyników pomiarów pojedynczych wielkości. Niezbędna jest więc standaryzacja procedur wyznaczania, przetwarzania, oceny dokładności i sposobu publikowania wyników pomiarów wieloparametrowych, aby otrzymywane dane miały wysoką jakość i odpowiednią wiarygodność metrologiczną. Zagadnieniom tym jest poświęcony, Suplement 2 do GUM, dopiero ostatnio ukończony i dostępny już w Internecie [1a]. Suplement ten liczy ponad 70 stron. Poza wstępem i odniesieniami do innych związanych z nim tematycznie przepisów obejmuje: pojęcia i definicje, notację i podstawy wektorowego opisu pomiarów wieloparametrowych, wyznaczania ich niepewności z uwzględnieniem dotychczasowych zasad GUM, zastosowanie Metody Monte Carlo, 5 przykładów oraz 4 aneksy i bogatą bibliografię. Pomimo tak bogatej treści nie zawiera on jeszcze omówienia wiele zagadnień niezbędnych we wdrożeniu w praktyce pomiarowej ... więcej»

Photoelectrical properties of photovoltaic structures based on CdTe/ZnO (EUNIKA Zielony, PAULINA Kamyczek, PIOTR Biegański, EWA Płac zek-Popko, RAFAŁ Pietruszka, GRZEGORZ Łuka, MAREK Godlewski)
Photovoltaics continues to be one of the fastest growing industries, with annual increase beyond 40% [1]. Photovoltaic (PV) solar cells convert incoming solar radiation directly into electricity and produce electricity as each conventional source of energy, but they are very attractive for they are environment friendly. Zinc oxide (ZnO) is nowadays worldwide extensively studied for optoelectronics and photovoltaics application. It is predicted that there will be a mass production of conducting ZnO layers as transparent electrodes in solar cells. It is said that ZnO layers will soon replace indium transparent oxide (ITO) because of high cost and limited supply of indium. Yet there is another very attractive field of ZnO application. It may be used as the n-type partner for the organic materials. There is a bright future in front of the PV cells based on such a hybrid structures for their flexibility and a very low cost of production. The use of ZnO in the novel electronic and PV devices demands low or extremely low processing temperature [2-4]. There are many different technologies used to obtain ZnO layers. These are chemical vapor deposition (CVD), molecular ... więcej»

Elektrochemiczny czujnik na bazie cieczy jonowej do oznaczania par benzaldehydu (Jacek GĘBICKI, Adam KLOSKOWSKI, Irmina KWIATKOWSKA, Wojciech CHRZANOWSKI )
Czujniki elektrochemiczne, ze względu na swoje zalety jak i ograniczenia, mogą być cennym źródłem uzyskanych informacji na temat emisji poziomu i jakości zanieczyszczeń z grupy lotnych związków organicznych (LZO). Naturalnymi źródłami pierwotnej emisji LZO są rośliny i spalanie biomasy. Najprostszym aromatycznym związkiem karbonylowym należącym do grupy LZO najczęściej wykrywanym w pomiarach emisyjnych jest benzaldehyd [3]. Elektrochemiczny czujnik do oznaczania par benzaldehydu mógłby znaleźć zastosowanie do określania wskaźników emisji LZO podczas spalania biomasy. Wartości stężeń LZO w tych warunkach są na poziomie 1…500 mg/m3 w zależności od rodzaju związku, co w zupełności predysponuje taki czujnik do detekcji par benzaldehydu [6]. W ostatnich dwudziestu latach z powodzeniem zaczęto stosować w elektrochemii, a także w czujnikach ciecze jonowe [1, 4]. Ciecze jonowe stanowią atrakcyjną alternatywę dla rozpuszczalników tradycyjnie stosowanych w elektrochemii ze względu na posiadane właściwości: niewielką prężność par, szeroki zakres stabilności elektrochemicznej, wysoką trwałość termiczną i względnie wysokie przewodnictwo właściwe. Stosowanie cieczy jonowych w czujnikach gazowych wyklucza często stosowanie membrany oddzielającej środowisko gazowe od elektrolitu wewnętrzneg... więcej»

AP-MOVPE technology of AIIIBV-N heterostructures for photovoltaic applications (Wojciech Dawidowski, Beata Ściana, Damian Pucicki, Damian Radziewicz, Jarosław Serafińczuk, Magdalena Latkowska, Marek Tłaczała)
Properties of dilute nitrides material system like large discontinuity of a conduction band (due to high electronegativity of nitrogen) [1], large band gap bowing coefficient [2], increased electron effective mass [3], large scattering rate (connected with a small radius of nitrogen atom in comparison with the others V group atoms) [4] provide a way to novel applications: telecommunications lasers [1], heterojunction bipolar transistors [5] and very efficient solar cells [6]. InGaAsN is a very promising, lattice matched to GaAs and In0.5Ga0.5P material with band gap about 1 eV. The control of indium and nitrogen amounts in the InGaAsN quaternary alloy offers the ability to tailor the value of band gap and positions of valence and conduction band edges. Main advantage of dilute nitrides is a large reduction of band gap caused by nitrogen introduction (about ~150 meV/% of N). The technology of GaAs is better developed and still much cheaper than indium phosphide and allow to fabricate much better Bragg reflectors (based on the high refractive index contrast GaAs/AlAs heterostructure) for laser applications. Moreover, this material system guarantees a good temperature performance of light emitters and a high internal quantum efficiency of solar cells. On the other hand, growth of InGaAsN quaternary alloy causes some technological problems. The ... więcej»

Antireflection coating with plasmonic metal nanoparticles for photovoltaic applications (Zbigniew Starowicz, Marek Lipiński)
Photovoltaics is dynamically growing field of science and industry. Every year significant growth of installed power of photovoltaic systems is observed. Two major factors stand up against world wide popularity of PV: low efficiency and high production cost, which is mainly concerned with materials costs. Many technological and physical tricks have been implanted to the solar cells to improve their capabilities of conversion solar radiation into electricity. To deal with high materials costs photovoltaic thin film technology have been invented. One of the methods of improving cells efficiency is reduction of reflected and non-absorbed photons. Conventionally antireflection coating and surface texturisation is used for that matter. Texturisation of semiconductor surface means creating a few micron-high geometric figures, shapes on the surface to enable multiple reflection of light beams. For thin film technology implementation of surface texture is impossible due to size of figures exceeding total cell thickness. Here plasmonics as a new solution have been proposed. Plasmonics is a new branch of science which provides tools for confinement of light in nanoscale objects. Generally speaking special type of interaction of light with metallic objects is the origin of many phenomena. In the solar cells they can provide improvement of carriers generation due to near field around the object or efficient scattering of light and... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Proste metody tworzenia map głębokości i wypełniania luk informacyjnych przy konwersji obrazów 2D do 3D (Julian Balcerek, Adam Konieczka, Adam Dąbrowski, Tomasz Marciniak)
Istniejące proste metody konwersji obrazów 2-wymiarowych 2D (ang. two-dimensional) na 3-wymiarowe 3D (ang. three-dimensional) wykorzystują binarne mapy głębokości określające, które obiekty przedstawione na obrazie widz ma postrzegać jako bliższe, a które jako dalsze. Mapy głębokości oraz metody ich tworzenia opisano w [1-7]. Obecnie jednym z największych problemów jest opracowanie skutecznych metod automatycznego generowania map dla obrazów nieruchomych oraz dla sekwencji wizyjnych. Kolejnym problemem jest opracowanie metod wypełniania tzw. luk informacyjnych. Człowiek, patrząc na dowolny obiekt, widzi go każdym okiem pod nieco innym kątem i na nieco przesuniętym tle. Na tej podstawie mózg określa odległości i tworzy wrażenie trójwymiarowości postrzeganej sceny. W przypadku zdjęcia zarejestrowanego jednym obiektywem brakuje więc części informacji, którą, w celu konwersji do formatu 3D, należy uzupełnić. Ten brak określa się mianem luk informacyjnych. Nowe metody ich wypełniania autorzy opisali w pracy [8]. Opracowanie aplikacji programowej do skutecznej konwersji obrazów 2-wymiarowych na 3-wymiarowe może mieć zastosowanie np. w systemach monitoringu CCTV (ang. Closed-Circuit Television), aby zwrócić uwagę operatora monitoringu oglądającego obraz z wielu kamer na sytuacje potencjalnie niebezpieczne [9]. Ogólna idea proponowanego dodatkowego narzędzia dla operatora monitoringu jest przedstawiona na rys. 1. W dalszej części opisano metody detekcji i śledzenia obiektów w celu generacji map głębokości, natomiast w rozdziale trzecim zaproponowano metodę tworzenia obrazów 3-wymiarowych z 2-wymiarowych przy wykorzystaniu binarnych map głębokości wraz z proponowanym sposobem wypełniania luk informacyjnych. Wykrywanie i śledzenie obiektów w celu generacji binarnych map głębokości Algorytmy detekcji ruchu w sekwencjach wizyjnych bazują na różnicach zawartości kolejnych ramek. Systemy wizyjne wykonujące detekcję ruchu służą głównie ... więcej»

Interferometr mikrofalowy na pasmo L (Michał Gasztold)
Interferometr mikrofalowy (rys. 1) jest układem elektronicznym, umożliwiającym wyznaczanie kierunku, z którego dociera do niego fala elektromagnetyczna. Urządzenia tego typu znajdują zastosowanie w monoimpulsowych systemach radiolokacyjnych fazowych określających położenie obiektów w przestrzeni trójwymiarowej. Najprostszy układ antenowy interferometru, umożliwiający wyznaczenie kąta padania θ w jednej płaszczyźnie, tworzą dwie anteny oddalone od siebie o odległość d, nazywaną bazą - rys. 1 [4]. Zgodnie z rys. 2 kąt θ określa się wg następujących zależności: (1) (2) gdzie: ΔΨ - przesunięcie fazowe między sygnałami odebranymi przez antenę A1 i A2, λ - długość fali, ( ) θ λ π ΔΨ = 2 d sin    ΔΨ⋅ = π d λ θ 2 arcsin W przestrzeni trójwymiarowej (3D) kierunek, z którego odbierana jest fala elektromagnetyczna określają kąty podniesienia (kąt elewacyjny) θ i azymutalny φ, które to kąty zdefiniowano na rys. 3. W płaszczyźnie azymutalnej x0y kąt określa się w praktyce względem kierunku północnego, tj. bieguna magnetycznego. W płaszczyźnie elewacyjnej kąt θ jest określany względem bazy interferometru (odcinka łączącego centra fazowe anten odbiorczych interferometru) lub normalnej do bazy. Oba wymienione wyżej kąty nazywane są parametrami namiaru lub pełnym namiarem. Załóżmy, że przesunięcia fazowe sygnałów odbieranych przez anteny A1 i A2 oraz A3 i A4 są znane i wynoszą ΔΨ12 i ΔΨ34. Nie jest trudno uzasadnić, że kąty φ i θ związane są z przesunięciami fazowymi ΔΨ12 i ΔΨ34 następującymi zależnościami: (3) (4) Rozwiązaniem układu równań (3)(4) są poszukiwane kąty φ i θ : (5) (6) Istotą pracy interferometrów jest możliwie precyzyjne wyznaczenie wartości przesunięć fazowych ΔΨ12 i ΔΨ34, co ma zasadniczy ... więcej»

Field characteristic of magnetic sensors on the split hall structures (Roman Holyaka, Zenon Hotra, Mariusz Węglarski, Tetyana Marusenkova)
Galvanomagnetic sensors are widely used for magnetic field measurement due to their capability to work in a wide range of magnetic flux density (from 10-6 T to several tens of Tesla) and temperature (from 1 K to 400 K), their small sizes (several millimeters) and low cost (in large-scale production) [1, 2]. Hall sensors are a kind of galvanomagnetic sensors. A typical Hall sensor is a rectangular semiconductor slab with two pairs of electrodes: one pair is used for energizing the slab whilst the other is intended for Hall voltage measurement (these two electrodes are referenced to as potential electrodes, they are placed symmetrically along the current-flow line) [3, 4]. One can distinguish two typical variants of probes of Hall sensors - with normal (transverse) and with axial position of a sensor in a probe. Such probes are intended for measuring the only magnetic-field vector’s projection which is normal to the probe’s work surface. This fact causes two problems. The first problem is restricted spatial resolution; the second one is impossibility of simultaneous measurement of three magnetic-field vector’s projections (BX, BY, BZ) in a certain point of space. As shown in Fig. 1a, there no difficulties concerned to measurement of the magnetic-field vector’s projection normal to a certain surface. In order to measure this projection sensor is to be placed immediately on this surface. The distance d between the surface being measured and the effective layer (active region) can be rather short and depends on the width of the effective layer’s substrate. Thinning the substrate appropriately, one can achieve the distance d nearly equal to 0.2…0.3 mm. However if the magnetic-field vector’s projections parallel to the surface are to be measured then the sensor’s structure is to be set vertically (Fig. 1b). This causes the minimal possible distance d between the sensor’s active reg... więcej»

Digital signal processing in the diagnosis of brainstem auditory evoked potentials (Andrzej P. Dobrowolski, Michał Suchocki, Kazimierz Tomczykiewicz)
Examination of evoked potentials (EP) is one of the methods for diagnosing a human brain. This examination allows for monitoring and registering bioelectrical activities of the brain. By using EP one can examine sight and hearing and evaluate responses to different stimuli that activate different parts of the brain. This article is devoted to neurological diagnostics based upon examination of Auditory Evoked Potentials (AEP) [1]. The authors explain what evoked potentials are and how important role they play in hearing examination and discuss the current methods for analysis of its results. The major subject of the article is to describe an alternative way of analyzing the survey results, based on digital signal processing. Moreover, it presents problems associated with acquisition of digital recording of auditory evoked potentials and exemplary waveforms of the potentials corresponding to normal and pathological cases as functions of time and frequency. BEAP All brain activities are closely associated with movements of ions and charge polarization. Electric charges that are moving within the nerve structures can be recorded and received in the form of electric potential. If we stimulate a sensory-sensual receptor, we will automatically receive the response in the form of an electrical signal. Evoked potentials are generated this way. Under the influence of acoustic stimuli in the auditory pathway, the ear, which is a sensory receptor (Fig. 1), produces voltage changes, known as auditory evoked potentials. Evoked potentials are according to response time to stimulation that generates the response. In biomedical terminology, the response time is referred to as latency (in technical nomenclature it would be called a delay). We can classify auditory evoked potentials as short, medium or long latency potentials, according to the reaction time. Taking into account their clinical suitability, only Short Latency Auditory Evoked Pot... więcej»

Zastosowanie przekształceń grafiki trójwymiarowej w obrazowej diagnostyce medycznej (Adam Skurski, Piotr Mazur, Jakub Chłapiński, Marek Kamiński, Andrzej Napieralski, Jarosław Kasprzak, Piotr Lipiec)
Graficzna reprezentacja wyników analiz medycznych może dostarczyć dużo większą ilość informacji przy zwiększonej czytelności prezentowanych danych, niż analiza wyłącznie tabelarycznych danych tekstowych. Dzięki rozwojowi technik cyfrowych raporty medyczne zmieniły swoją postać z wykazu wartości liczbowych na bardziej wyrafinowane i łatwiejsze w interpretacji formy prezentacji wyników. W okresie ostatnich 30 lat można zauważyć istnienie silnej tendencji w kierunku uproszczenia sposobu wyświetlania danych wynikowych poprzez przedstawianie ich w postaci wykresów, czy prezentacji kolorowych modeli. Współczesne techniki diagnostyki medycznej wymagają, aby dane prezentowane w formie graficznej były dokładne i intuicyjnie interpretowalne, co często wymaga długotrwałego przetwarzania danych zebranych podczas badania. Tego rodzaju analizy wymagają więc od personelu medycznego wydłużonego czasu oczekiwania na wynik w celu podjęcia dalszych kroków diagnostyki i przyjęcia odpowiedniej ścieżki leczenia. Ciągły postęp technologiczny umożliwia obecnie znaczące skrócenia tego czasu przyczyniając się do gwałtownego rozwoju diagnostyki obrazowej. Wykorzystanie techniki CT (ang. Computed Tomography - tomografia komputerowa) dało możliwości reprezentacji wnętrza ludzkiego ciała za pomocą obrazów dwu- i trójwymiarowych (2D/3D). Zastosowanie algorytmów segmentacji obrazu umożliwiło osiągnięcie wysokiej precyzji odwzorowania przy obserwacji pojedynczych organów wewnętrznych. Inne algorytmy, takie jak algorytm Marching Cubes [7], pozwalają na opracowanie z otrzymanych obrazów modeli analizowanych struktur w postaci cyfrowej siatki geometrycznej reprezentującej ich powierzchnię boczną. Implementacja wybranych algorytmów i zastosowanie nowoczesnych technik komputerowych umożliwiło skrócenie czasu wykonywania tego rodzaju przekształceń graficznych do kilku sekund. To natomiast sprawiło iż kolejne metody przekształceń obrazów medycznych pozwalają na uz... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
Anode Supported Planar Solid Oxide Fuel Cell (SOFC) – novel design (Barbara Dziurdzia, Zbigniew Magoński, Henryk Jankowski, Jan Koprowski)
Solid Oxide Fuel Cells (SOFCs) are highly efficient energy conversion devices that transform chemical energy to electrical energy through the electrochemical reactions. SOFC consists of two ceramic electrodes (anode and cathode) separated by a dense ceramic electrolyte and it operates at high temperature in the range from 800°C to 1000°C. Oxygen ions formed at the cathode migrate through the ion - conducting electrolyte to the anode/ electrolyte interface where they react with fuel, producing water and releasing electrons that flow through an external circuit to the cathode/electrolyte interface [1-3]. Microstructure of the cathode, anode and electrolyte is important for the proper fuel cell operation. The electrolyte should be dense, gas-tight and ion conducting. The electrodes should be transparent for gases and have good electrical conductivity [4-6]. In a typical planar SOFC design, the cell components are configured as thin, flat plates and metallic or ceramic interconnects serve as gas flow channels and provide the electrical connection between the cells in a stack of cells. The article presents a novel design of the anode-supported high temperature solid oxide fuel cell (SOFC) which differs from the typical planar SOFC design by the multifunctional anode construction. The anode consists of the anode base with embedded fuel distribution channels, manifolds and waste product collectors, and two operating anodes deposited on the both sides of the base. The embedded channels are connected with the outside via inlet for fuel and outlet for the waste products. The operating anodes are permanently bonded with the anode base by sintering. The anode base supports two cells, serves as a common current collector and provides fuel distribution. The anode base and operating anodes are made of commercially available nickel oxide and yttria-stabilized zirconia (Ni/YSZ) green tapes and further components of the cell - electrolyte and ... więcej»

Investigation of leaded assembly process of lead-free BGA and CSP structures (Janusz Borecki)
The basic element of every electronic device is a Printed Circuit Board (PCB) on which the electronic components are mounted. Assembly of components is usually made by soldering in Surface Mount Technology (SMT). The created in this process solder joints have to fulfill two main tasks, namely: the connection of component leads to connections network, as well as the mechanical connection of component to the surface of PCB. The quality of solder joints depends on many factors, which include: parameters of assembly process, type of solder paste, surface finishing of PCB’s solder pads (e.g. Ni/Au, immersion Sn, HAL, etc.) [1]. The constant market demands for miniaturization of consumer electronic devices such as digital cameras, mobile phones, portable media players, etc., forces to use more and more functional, as well as more and more integrated multi-lead semiconductor structures (e.g. BGA, CSP, Flip-chip) [2]. These electronic devices are often operated in extremely variable environmental conditions, and the reliability of them strongly depends on quality of solder joints. It is known that the solder joints made with use leaded (Pb) technology are more reliable and more resistive for mechanical exposure in comparison to Pb-free solder joints [1]. From this reason, many sectors of electronic industry such as automotive, energetic, medical, military and aerospace are excluded from regulations of RoHS Directive [1, 3]. On the other hand, the producers of electronic components, to reduce of production costs, manufactures their products in one version only, usually in Pb-free technology. In this fact it is necessary to assembly of electronic components in mixed technique (Pb-free components assembled by leaded solder paste). Investigations At the moment of necessity of assembly in mixed technique becomes a complex issue of good quality of solder joints making. It is especially important in case of assembly of components wit... więcej»

Próżniowe otrzymywanie cienkich warstw na wielkogabarytowych, szklanych podłożach. Część 2 - linia przesyłowa (Jarosław Halarewicz, Piotr Domanowski, Jerzy Dora, Andrzej Wawrzak, Kazimierz Karwowski, Piotr Pinio, Artur Wiatrowski, Witold Michał Posadowski)
Przemysłowe linie osadzania powłok cienkowarstwowych można podzielić, ze względu na sposób pracy, na systemy tzw. in-line i off-line. Odpowiednikiem w języku polskim są odpowiednio, potokowe i wsadowe systemy nanoszenia cienkich warstw. Różnica między nimi polega na sposobie realizacji cyklu próżniowego. W wypadku systemu potokowego (in-line) podłoża są pokrywane powłokami w sposób ciągły i przemieszczają się przez kolejne komory urządzenia przy "otwartym" wejściu i wyjściu linii. Warunki próżniowe są osiągane w wyniku pompowania kolejnych komór oraz śluz między nimi (tzw. komór buforowych). Dzięki odpowiednim rozwiązaniom konstrukcyjnym są zapewnione wymagane warunki procesów osadzania warstw przy dynamiczne "otwartym" systemie próżniowym. Kolejne partie, przesuwających się wzdłuż linii, podłoży są pokrywane w sposób ciągły powłokami cienkowarstwowymi i cykl produkcyjny zamyka się w jednym cyklu próżniowym. W wypadku systemu wsadowego (off-line), po załadowaniu do komory roboczej określonej liczby podłoży, następuje proces pompowania, procesy obróbki wstępnej podłoży, właściwy proces pokrywania warstwami, a następnie komora robocza jest zapowietrzana. Po zakończeniu cyklu próżniowego, podłoża są wyładowywane z komory, ich miejsce zajmuje następna partia podłoży i jest realizowany kolejny cykl próżniowy. Zatem na cykl produkcyjny składają się kolejne cykle próżniowe. Wybór systemu do nanoszenia cienkich warstw zależy od stawionych wymagań. Linie potokowe składają się z kilku (kilkunastu) komór roboczych, a ich długość jest rzędu kilkudziesięciu metrów. Działanie systemu wsadowego zakłada prowadzenie procesu otrzymywania warstw w jednej komorze roboczej. W systemie potokowym istnieje możliwość pokrywania wielu podłoży, ale w praktyce tylko płaskich. Mogą również wystąpić ograniczenia przy stosowaniu bardziej specjalistycznych technologii. W systemie wsadowym stwarza się różnorodne możliwości technologiczne oraz zapewnia nanos... więcej»

Fabrication and properties of multilayer capacitors with multicomponent ferroelectric dielectric (Jan Kulawik, Dorota Szwagierczak)
Multilayer ceramic capacitors can offer small size, high capacitance, stable temperature characteristics, high reliability and low cost [1-8]. The successful attainment of these features is strongly dependent on applied dielectric materials. The MLCC structure manufactured in LTCC process consists of alternate dielectric layers and metallic electrodes in parallel configuration. High dielectric constant, small thickness and large number of dielectric layers are factors determining high volumetric efficiency of a multilayer capacitor. The progress in tape casting and LTCC technology has made it possible to produce hundreds of very thin dielectric layers with a thickness diminished down to 3 μm. The early dielectric formulations are based on BaTiO3 which resulted in necessity of the use of expensive platinum or gold platinum internal electrodes. Application of sintering aids lowering BaTiO3 firing temperature down to 1150°C allowed utilization of cheaper palladium-silver electrodes. A further decrease in this temperature making possible the use of Ag electrodes requires excessive amounts of fluxes and causes detrimental diminishing of dielectric constant of BaTiO3 ceramic. One of the best solutions overcoming these problems is the introduction of relaxor compounds with perovskite structure and a general formula of Pb(B’B")O3 (B’=Mg, Zn, Fe; B"=Nb, Ta, W). High and broad maxima of dielectric permittivity along with low sintering temperature and ability to form thin layers are advantages of capacitor dielectrics containing these materials. In this work the multicomponent composition of dielectric was tailored to attain a few purposes determining processing conditions and desired properties of multilayer capacito... więcej»

Analiza złożoności efektywnych metod predykcyjnych stosowanych do bezstratnej kompresji obrazów (GRZEGORZ ULACHA)
Kompresja obrazów pozwala na znaczną redukcję wymagań pamięciowych systemów przetwarzania, transmisji i przechowywania danych. Obok najczęściej wykorzystywanych stratnych formatów takich jak JPEG i JPEG2000 istnieją bezstratne metody, gdyż często tryb bezstratny wymagany jest na etapie graficznej obróbki zdjęć, materiałów reklamowych oraz przy produkcji audycji telewizyjnych, filmów (post-production [1]) itp. W takiej sytuacji nie można korzystać ze stratnych metod kompresji takich jak JPEG, JPEG2000 (dla obrazów statycznych), czy MPEG2, MPEG4 (dla sekwencji wideo). Choć te standardy mają odpowiednie tryby bezstratne, to nie można ich zaliczyć do kategorii najwydajniejszych. Do istotnych zastosowań bezstratnej kompresji obrazów i sekwencji wideo należy także archiwizacja obrazów medycznych 2D, 3D oraz 4D (trójwymiarowe sekwencje wideo) [2-6], astronomicznych, a także kompresja zdjęć satelitarnych [7, 8]. W przypadku stosowania nowoczesnych metod kompresji wykorzystuje się zwykle dwa etapy: dekompozycję danych, a następnie kompresję jedną z wydajnych metod entropijnych, wśród których najefektywniejsze to kodowanie arytmetyczne Huffmana [9]. W tej pracy skupiono się na omówieniu kilku technik dekompozycji obrazu, którą wspiera metoda adaptacyjnego kodowania arytmetycznego opisana w pracy [10]. W przypadku sygnałów dwuwymiarowych, jakimi są obrazy, możemy zaobserwować podobieństwo między sąsiednimi pikselami, czyli zależność przestrzenną/płaszczyznową sąsiedztwa (ang. spatial correlation). Modelowanie danych sprowadza się w takim przypadku do próby usunięcia jak największej ilości informacji wzajemnej występującej między sąsiadującymi ze sobą pikselami, jest to zatem pewien proces dekompozycji danych. Po etapie modelowania obrazu możemy uznać, iż przekształcony sygnał cyfrowy stanowi w przybliżeniu zbiór symboli wzajemnie niezależnych. Korzystając z założenia malejącej korelacji wraz ze wzrostem odległości pikseli, możemy doko... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Strategiczne kierunki rozwoju technologii i produktów militarnych w Bumar Elektronika (Zenon Szczepaniak, Jerzy Miłosz, Andrzej Kątcki, Zenon Obrycki, HENRYK KANTECKI)
W perspektywie 2012-2020 Dywizja Bumar Elektronika powinna osiągnąć następujące cele strategiczne: - Utrzymać wiodącą pozycję dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, - Wejść ze swoimi produktami i usługami na rynek uzbrojenia zagraniczny, szczególnie europejski, - Zdobyć wybrany segment rynku cywilnego (krajowego i zagranicznego). W celu utrzymania wiodącej pozycji dostawcy UiSW w zakresie systemów wspomagania dowodzenia i sensorów na rynku krajowym, w wyżej opisanych warunkach rosnącej konkurencji, a więc możliwości dostaw (obiektów) systemów wspomagania dowodzenia i sensorów przez konkurencyjne firmy (krajowe i zagraniczne), należy zdobyć pozycję integratora systemu C4ISR SZ RP. Wtedy Bumar Elektronika będzie miała wpływ na kształtowanie architektury systemu oraz zasad integracji, wzrośnie też szansa, że podsystemy, obiekty i produkowane sensory będą bardziej konkurencyjne w stosunku do wyrobów innych producentów. Realnym jest wejście na rynki zagraniczne (w tym europejski) z podzespołami, podsystemami, czy specyficznymi usługami (szczególnie w zakresie oprogramowania), ale jako podwykonawca czy dostawca wybranej firmy lub firm europejskich. Natomiast, w celu uzyskania konkurencyjności wybranych produktów i usług Bumar Elektronika na rynku cywilnym należy wydzielić "linię produkcji cywilnej" lub powołać "firmę -córkę", która nie byłaby obciążona kosztami związanymi z wymaganiami dotyczącymi produkcji wojskowej. Proces osiągania celów strategicznych powinien składać się z następujących faz: - Faza I - konsolidacja spółek - cel bliższy (ok. 2 lata) - utrzymanie ciągłości realizacji umów i zobowiązań, - Faza II - utrzymanie rynku i budowanie bazy do osiągania celów strategicznych - cel średnioterminowy (do ok. 5 lat). Osiąganie celu bliższego (Faza I) polega na wdrożeniu takich struktur organizacyjnych oraz zachowaniu zasobów ludzkich pozwalających na realizację podpisanych (obe... więcej»

Kwantowa dystrybucja klucza. Postępy i problemy (Wojciech Nowakowski)
W kryptografii kwantowej klucz może być przesyłany kanałem publicznym, ponieważ każda próba przechwycenia transmitowanej informacji wprowadza zmiany, ujawniające fakt podsłuchu. Rozróżnia się dwa główne typy kryptosystemów kwantowych: - pierwszy, zasygnalizowany przez Stephena Wiesnera w latach 70. i rozwinięty w 1984 r. przez Charlesa H. Bennetta oraz Gillesa Brassarda [1], wykorzystuje fakt, iż pomiar dowolnego stanu mikroobiektu nieodwracalnie zmienia ten stan. Kryptosystemy tego typu, z kodowaniem opartym na pomiarze jednej z dwóch możliwych wielkości reprezentowanych przez niekomutujące (nieprzemienne) operatory hermitowskie, np. protokół BB84, przedstawiono pokrótce w [2], - drugi, zarazem lepiej rokujący, został opisany w 1991 r. przez Artura Ekerta [3], polskiego profesora fizyki kwantowej, pracującego w Oksfordzie (i w Singapurze), opiera się na zjawisku stanów splątanych par cząstek (a właściwie ich spinów), tzw. singletów (czyli związanych nierównością Bella par EPR), które mają taką właściwość, że gdy zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu drugiej cząstki. Bezpieczeństwo kryptosystemu kwantowego Ekerta polega przede wszystkim na tym, że informacja definiująca klucz pojawia się nie podczas procesu przesyłania, lecz dopiero po pomiarach dokonanych przez nadawcę i odbiorcę. Dla nadawcy i odbiorcy rezultaty ich własnych pomiarów wyglądają na całkowicie przypadkowe. Jeśli jednak obaj porównają wyniki, okaże się, że istnieją między nimi korelacje wynikające ze splątania. W uproszczeniu zasadę tego typu kryptosytemu kwantowego opisano w [4]. Zespół naukowy koordynowany przez prof. prof. Konrada Banaszka z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) i Pawła Horodeckiego z Wydziału Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (PG), pr... więcej»

Osobisty rejestrator indukcji wolnozmiennych pól magnetycznych (Mateusz Szumilas, Elżbieta Ślubowska, Krzysztof Lebenstein)
We współczesnej diagnostyce medycznej, obrazowanie z wykorzystaniem magnetycznego rezonansu jądrowego (MR) jest metodą szeroko rozpowszechnioną. O jej użyteczności stanowi możliwość uzyskiwania obrazów wybranych przekrojów ciała człowieka bez oddziaływania na nie promieniowaniem jonizującym, jak ma to miejsce w przypadku np. obrazowania rentgenowskiego. W celu uzyskania tego rodzaju obrazów, pacjent musi być umieszczony w silnym, stałym polu magnetycznym o indukcji sięgającej kilku tesli (najpopularniejsze są systemy o indukcji 1,5 oraz 3 T), którego źródłem są magnesy stałe bądź elektromagnesy nadprzewodzące. Poza stałym polem magnetycznym w metodzie tej wykorzystuje się również magnetyczne pola gradientowe i pola elektromagnetyczne o częstotliwościach radiowych, które są włączane tylko w trakcie badania. Należy podkreślić, że najczęściej pole stałe występuje ciągle, zarówno wewnątrz jak i w otoczeniu skanera MR, stwarzając stan narażenia obsługi aparatu. Sprawy narażenia, zarówno pracowników jak i pacjentów na pola magnetyczne i elektromagnetyczne w pracowni MR były niejednokrotnie analizowane, w wyniku czego sformułowane zostały odpowiednie rekomendacje mające na celu zapewnienie im bezpieczeństwa [1-4]. W tego rodzaju dokumentach zwraca się wyraźnie uwagę na konieczność prowadzenia ciągłych, dalszych badań ze względu na niepełny dotychczasowy obraz zdrowotnych konsekwencji pozostawania pod wpływem wspomnianych czynników. Istnieje zatem potrzeba gromadzenia i udostępniania do badań epidemiologicznych danych dotyczących tego typu narażeń, głównie pracowników obsługi. W trakcie przeprowadzanego badania pacjenta w większości przypadków obsługa pracowników MR pozostaje poza pomieszczeniem, w którym znajduje się skaner. Stąd narażenie pracowników dotyczy przede wszystkim przebywania w obszarze występowania stałego pola magnetycznego. Ma to miejsce podczas przygotowywania pacjenta do badania oraz wykonywania tych czynności, k... więcej»

Program strategiczny "TARCZA POLSKI" (Andrzej Kątcki, Ryszard Szpakowicz, Tomasz Zawada)
Podejmując się realizacji Programu "TARCZA POLSKI" Grupa BUMAR przyjęła poniższe założenia: - Opracowany system powinien spełniać oczekiwania Polskich Sił Zbrojnych dotyczące modernizacji polskiego systemu OPL. W szczególności należy zapewnić:  integrację z obecnym i perspektywicznym systemem Obrony Powietrznej,  możliwość wykorzystania wszystkich lub wybranych komponentów w strukturach OP NATO,  modułowość struktury systemu, która zapewni skalowalność architektury i elastyczność wykorzystania komponentów systemu,  możliwość etapowej modernizacji systemu OPL rozumianej jako jednoczesne korzystanie z posiadanych i pozyskiwanych, w ramach programu, środków przeciwlotniczych celem zachowania ciągłości funkcjonowania systemu OP w tym czasie. - Należy znaleźć partnera zagranicznego, producenta rakiet (zestawów rakietowych) średniego i krótkiego zasięgu, który będzie gotowy przekazać polskiemu przemysłowi technologie produkcji przeciwlotniczych zestawów rakietowych i wesprzeć polski przemysł w procesie realizacji programu. - Zapewnić maksymalną polonizację systemu. W tym celu należy wykorzystać dorobek polskiego przemysłu, w szczególności opracowane w ramach realizacji programów na rzecz MON sensory radiolokacyjne i elektrooptyczne, środki rakietowe i artyleryjskie bardzo krótkiego zasięgu oraz systemy C2. Proces polonizacji nie powinien ograniczać możliwości taktycznych pozyskiwanych rakiet, które będą osiągane w środowisku oryginalnym systemu. - Zapewnić aby polski przemysł pozyskał i wdrożył technologie (np. dzięki transferowi w ramach offsetu, w tym przede wszystkim offsetu związanego z zakupem rakiet MR i SR), niezbędne do:  produkcji rakiet krótkiego i średniego zasięgu,  realizacji wsparcia eksploatacji systemu ILS (ang. Integrated Logistic Support),  przygotowania i realizacji przyszłych modernizacji systemu (ang. future system up-grading). Celem polonizacji jest ... więcej»

Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Wybrane mikrosystemy opracowane w Zakładzie Mikroinżynierii i Fotowoltaiki Wydziału Elektroniki Mikrosystemów i Fotoniki Politechniki Wrocławskiej – przegląd ostatnich osiągnięć (Jan A. Dziuban)
Na jednego Amerykanina w 2002 roku przypadały 3, a w roku 2012 około 27 mikrosystemów. W najbliższym otoczeniu Wydziału Elektroniki Mikrosystemów i Fotoniki na którym pracuję - w zwykłym dniu, kiedy studenci i pracownicy przybywają do swej Alma Mater, znajduje się co najmniej 2000 sztuk różnych mikrosystemów - w samochodach, systemach ogrzewania budynków, telefonach komórkowych, komputerach, itd. Wiadomo, że rynek globalny urządzeń mikrosystemowych wynosi ok. 74 mld USD i rośnie średnio o 20% rocznie, nieprzerwanie od początku lat dziewięćdziesiątych. Tendencja ta utrzyma się przez co najmniej następne 20 lat. Technologia mikrosystemów może wykorzystywać pełną gamę materiałów i technik wytwarzania, jakie charakteryzują mikroelektronikę, z której się wywodzi. Wiodący udział mają tu jednak mikrosystemy krzemowe, tak zwane MEMSy, czyli trójwymiarowe mechanoelektryczne systemy zintegrowane, w których wykorzystuje się elektryczne/elektroniczne, jak i mechaniczne właściwości krzemu monokrystalicznego. MEMSy są tak popularne ponieważ, jako wyroby mikroelektroniczne są tanie, małe, mają małe zapotrzebowanie energetyczne na etapie wytwarzania jak i pracy, są niezawodne, wielofunkcyjne, łatwe do integracji z elektroniką klasyczną i zintegrowaną. Ponadto, MEMSy nie podlegają ograniczeniom rozwoju wynikającym z prawa Moore’a, co powoduje, że kapitał międzynarodowy chętnie inwestuje w długofalowe plany ich rozwoju. Integracja czysto mikroelektronicznych struktur planarnych stała się bazą do rozwoju techniki mikrosystemów MEMS, a przy okazji technik mikroinżynieryjnych o znacznie szerszym wymiarze technicznym. Pozwoliło to na miniaturyzację podzespołów i urządzeń w optyce (tzw. MEOMSy), mechanice (mikromaszyny, mikromechatronika), chemii (tzw. mikrosystemy chemiczne), wreszcie w biochemii i medycynie (technika lab-on-chipów) i w wielu innych obszarach nowoczesnej techniki. W efekcie, nowe wyroby mikromechaniczno-elektryczno-elektron... więcej»

Wykorzystanie zaawansowanych trybów mikroskopii sił atomowych w badaniach struktur i przyrządów półprzewodnikowych (Adam Szyszka, Wojciech Macherzyński, Joanna Pra żmowska, Mateusz Wośko, Andrzej Stafiniak, Jacek Gryglewicz, Maria Ramiączek -Krasowska, Bogdan Paszkiewicz, Bogdan Jankowski, Beata Ściana, Regina Paszkiewicz, Marek Tłaczała)
Zmniejszanie wymiarów charakterystycznych obszarów aktywnych przyrządów półprzewodnikowych oraz wykorzystywanie nowych materiałów są głównymi kierunkami rozwoju współczesnej elektroniki. Prowadzi to do zwiększenia częstotliwości pracy urządzeń oraz skali integracji, zmniejszenia wartości napięć zasilających oraz zużywanej energii, umożliwia powstawanie urządzeń których zasady działania są oparte na efektach kwantowych oraz pozwala zwiększyć czułość i czas reakcji elementów czujnikowych. W związku z tym opracowanie technologii wytwarzania nowoczesnych przyrządów półprzewodnikowych wymaga zastosowania w fazie badań metod charakteryzacji umożliwiających pomiar właściwości materiałów z rozdzielczością nanometrową. Jednymi z technik możliwych do zastosowania w tym celu są metody będące rozwinięciem klasycznej mikroskopi sił atomowych, w których badanie oddziaływań różnego typu między końcówką ostrza miktoskopu, a powierzchną próbki pozwala na określenie jej właściwości z rozdzielczością nanometrową. W niniejszym tekście zostaną przedstawione wyniki badań prowadzonych metodami SSPM, SSRM oraz obrazowania fazowego. Charakteryzacja właściwości struktur i przyrządów metodami mikroskopi AFM Skaningowa mikroskopia potencjału powierzchniowego Skaningowa mikroskopia potencjału powierzchniowego jest techniką mikroskopii sił atomowych, pozwalającą na zbadanie elektrostatycznego potencjału występującego na powierzchni materiału. W technice tej dokonuje się pomiaru potencjału powierzchni próbki, przez zmianę napięcia przyłożonego do przewodzącego ostrza tak, aby jego potencjał był taki sam jak potencjał materiału, co pozwala na minimalizacje siły elektrostatycznej oddziałującą między ostrze... więcej»

Zastosowanie ceramiki HTCC w konstrukcjach mikromechanicznych z warstwami grubymi PZT (Arkadiusz Dąbrowski, Leszek Golonka)
Technologie - ceramiczna i grubowarstwowa pozwalają na wykonywanie różnego rodzaju czujników, przetworników i innych urządzeń mikromechanicznych, takich jak na przykład sensory ciśnienia [1], siły [2]. W opisywanych zastosowaniach chętnie stosowana jest ceramika LTCC (Low Temperature Co-fired Ceramics - niskotemperaturowa ceramika współwypalana) głównie ze względu na temperaturę wypalania poniżej 900oC. Umożliwia to stosowanie typowych materiałów grubowarstwowych, co pozwala na wykonywanie różnego rodzaju biernych elementów elektronicznych wewnątrz wielowarstwowego modułu ceramicznego [3]. W przeciwieństwie do LTCC, ceramika HTCC wypalana jest w temperaturach z zakresu 1500…1800oC. Z tego powodu przy wykonaniu zagrzebanych metalizacji, należy stosować materiały o wysokiej temperaturze topnienia, jak W, Mo, Mn [4], o względnie większej rezystywności. W tabeli 1 przedstawiono porównanie podstawowych parametrów dwóch rodzajów ceramiki. Dla konstrukcji mikromechanicznych istotne są właściwości mechaniczne, takie jak moduł Younga oraz wytrzymałość na odkształcenia. Ceramika HTCC cechuje się blisko 3-krotnie wyższym modułem Younga w odniesieniu do LTCC, co jest jednoznaczne ze zwiększeniem sztywności konstrukcji i zmniejszeniem deformacji elementów w wyniku oddziaływania siły. Ponadto ceramika wysokotemperaturowa może pracować w wyższych temperaturach oraz posiada większą wytrzymałość mechaniczną. Ceramika HTCC znajduje głównie zastosowanie przy wykonywaniu układów mikrofalowych [5] oraz obudów [4], a także nielicznych konstrukcji mikrofluidycznych i mikromechanicznych [6]. Tab. 1. Porównanie wybranych parametrów ceramiki LTCC i HTCC [4] Tabl. 1.Comparison of selected parameters of LTCC and HTCC [4] Parametr Jednostka LTCC HTCC Przewodność cieplna W.m-1.K-1 3 20 Współczynnik rozszerzalności liniowej ppm.K-1 6 7 Wytrzymałość dielektryczna V.m-1×106 15 14 Stała dielektryczna (10 GHz) 7,8 9 Stratność dielektryczna (tg&#948... więcej»

Synteza nanocząstek materiałów sensorowych (Helena Teterycz, Dominika Oleś, Marta Fiedot , Olga Rac, Patrycja Suchorska, Patryk Halek, Grzegorz Halek)
W ostatnich kilkunastu latach w literaturze pojawiają się doniesienia o możliwości syntezy nanomateriałów różnymi metodami. Syntezuje się je między innymi następującymi metodami: hydrotermalną [1], techniką "odwróconego opalu" [2], z roztworu ciekłego [3], za pomocą wzorca [4], elektrochemicznie [5], utleniania termicznego [6], itp. Metodami tymi otrzymuje się nanorurki, nanopręty, nanokwiatki, nanopastylki oraz inne interesujące nanostruktury. Materiały o takiej nanostrukturze mogą znaleźć zastosowanie nie tylko w technice sensorowej, jak warstwy gazoczułe i filtry aktywne [7], ale również jako różne materiały w nanoelektronice i optoelektronice do konstrukcji różnych elementów, np. ogniw słonecznych, czy kryształów fotonicznych, jako katalizatory heterogeniczne, nanomateriały magnetyczne, wypełniacze do kompozytów i wiele innych [8]. W niniejszym artykule przedstawiono wyniki otrzymywania różnych nanomateriałów nową metodą z roztworu wodnego zawierającego organiczne związki stabilizujące. Część eksperymentalna Nanocząstki dwutlenku tytanu otrzymano w reakcji strącania chlorku tytanu(III) wodorotlenkiem amonu z roztworu wodnego (1), a następnie utleniania powietrzem atmosferycznym (2). (1) (2) W początkowym etapie syntezy nanocząstek tlenku tytanu(IV) przygotowywano wodny roztwór prekursora jonów tytanu (TiCl3), syntetycznego polimeru (polietylenoimina, PEI) oraz surfaktantu niejonowego (Triton ® X-100). Otrzymany roztwór mieszano na mieszadle magnetycznym i stopniowo dodawano roztwór wodorotlenku amonu. Nanocząstki złota otrzymywano w wodnym roztworze prekursora jonów złota (HAuCl4) oraz niejonowego surfaktantu (Tween ® 80). Otrzymany roztwór reakcyjny mieszano mieszadłem magnetycznym ... więcej»

Wpływ wygrzewania na nanokrystaliczne cienkie warstwy na bazie TiO2 na przykładzie TiO2:Nd (Michał Mazur, Damian Wojcieszak , Karolina Sieradzka, Danuta Kaczmarek, Jarosław Domaradzki , Eugeniusz L. Prociów)
Doskonałe właściwości optyczne, mechaniczne oraz termiczne sprawiają, że dwutlenek tytanu (TiO2) jest jednym z podstawowych materiałów szeroko wykorzystywanych w różnych dziedzinach techniki. TiO2charakteryzuje się bardzo dobrą przezroczystością (powyżej 80%), dużym współczynnikiem załamania światła (>2,3) oraz dużą względną przenikalnością elektryczną (>80). Dodatkowo właściwości tego materiału zależą od typu jego struktury krystalicznej, na którą można wpływać, między innymi, przez wygrzewanie. Lantanowce to pierwiastki, które rzadko występują w przyrodzie, lecz mają bardzo szerokie zastosowanie w takich obszarach, jak optoelektronika, optyka, czy ceramika [1]. Związki pierwiastków ziem rzadkich mają szczególne znaczenie w produkcji luminoforów, laserów, trwałych magnesów czy wysokotemperaturowych nadprzewodników [1]. Między innymi neodym używany jest do produkcji jednych z najważniejszych laserów, w których matrycę stanowi szkło i granat itrowo-glinowy (YAG). Lasery te stosowane są np. w medycynie przy zabiegach okulistycznych oraz stomatologicznych. Lantanowce stosuje się też jako domieszki w celu modyfikacji właściwości matrycy TiO2 [2]. Dla przykładu domieszkowanie lantanowcami może wzmacniać efekt luminescencji [3-6] lub zwiększać aktywność fotokatalityczną [7, 8]. Oprócz domieszkowania, również wygrzewanie jest jednym ze sposobów zmiany, który pozwala uzyskać różne właściwości cienkich warstw. W ten sposób można wpływać, między innymi, na fazę krystaliczną i rozmiar ziaren w wytworzonych cienkich warstwach [9]. Dwutlenek tytanu może występować w trzech różnych fazach: brukitu, anatazu oraz rutylu. Jednakże jedynie fazy anatazu i rutylu są użyteczne ze względu na różne zastosowania. W pracy przedstawiono wpływ wygrzewania na właściwości strukturalne oraz na... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Investigations of passive components embedded in printed circuit boards (Wojciech Stęplewski, Tomasz Serzysko, Grażyna Kozioł, Kamil Janeczek, Andrzej Dziedzic)
The concept of passive components embedded between inner layers of printed circuit board (PCB) was introduced many years ago. The first trials of embedded capacitors started at the end of sixties of the last century [1]. In the beginning of seventies started the applying of NiP layers for manufacturing of thin layer resistors [2]. Up to present day many materials which can be used for embedded passives were elaborated. But this technology is used in small range, especially in military and air electronics as well as in space electronics. Due to the increasing number of components which are now required to support a single active device, the passives are quickly becoming the major bottleneck in the general miniaturization trend which has become so important in today’s electronics world. The miniaturization of conventional passives reaches its limits and the next obvious choice is to embed the passive components into the PCB. This allows further miniaturization, has the potential to reduce cost and moreover exhibits superior electrical behavior with respect to the minimization of parasitic effects [3, 4]. Despite unquestionable advantages which characterize the embedded elements, they are not generally used in the production of PCBs. As well the designing of electronic devices such as filters, generators, RFID systems and many others, which are composed of passive components, was not to this time used on larger scale and knowledge in this matter is still very poor. Embedding passives will permit to integrate these elements and whole structures into the PCB. The idea of packing more and more elements in PCBs by application and development of embedding passives technologies becomes a necessity for electronic equipment producers. Materials and structures Thin-film resistors In the investigations two types of materials with sheet resistance of 25 Ω/□ (thickness 0.4 μm) and 100 Ω/□ (thickness 0.1 &#9... więcej»

Impact of non-optimal grounding of the CC2420 RFIC on a 802.15.4 Tyndall sensor wireless mote (Peter Haigh, John Buckley, Brendan O'Flynn, Cían Ó'Mathúna )
Range, throughput and power consumption are important issues in 802.15.4 [1] Wireless Sensor Networks. While the focus is often on increased power output (at the expense of dc power) and sensitivity to address these issues, little attention is given to waveform quality. Poor waveform quality often measured in terms of EVM can lead to increased packet errors, transmission retries and therefore reduced range and throughput leading to increased power consumption. One important factor in relation to this is proper grounding of the RF devices. This paper describes an investigation into these effects that was triggered when poor throughput was reported from the system integrators. Measurement Technique As the modulated signal passes through a non-linear function it becomes distorted. This distortion leads to a degradation in the signal quality and ultimately affects the throughput of the system due to an increase in Bit Error Rate (BER) leads to re-transmissions. The relationship between linearity, Adjacent Channel Power Ratio (ACPR) and EVM is well established [2, 3]. Of particular interest in this study was the effect of non-optimal grounding of the radio transceiver on output spectrum and EVM. Test methods were devised to measure these parameters based on the existing 802.15.4 standard. Adjacent Channel Power Ratio The incumbent radio standard defines some parameters for signal quality and ACPR. These are defined to ensure that the wireless system will perform to specification taking into account regulatory as well as inter and intra system issues. For ACPR it was found that the definition in 802.15.4 was not sensitive enough for this investigation. Therefore, a new measurement was defined to enable the analysis of more detailed linearity effects. A typical 802.15.4 spectra such as in Fig. 1, exhibits well defined troughs that are defined by the channel filter characteristic. From experimentation, it was shown that the spectral... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju - część 1 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, w szczególności półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wtedy koncepcji rozwiązań tego typu urządzeń. Próbowano wówczas wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, w ogólności zarówno w płaszczyźnie elewacji jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można dynamicznie, w razie potrzeby, regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, wystrzeliwane rakiety oraz rakiety balistyczne. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Coraz większy nacisk kładzie sie na ich integrację i wielofunkcyjność. Wymaga się jednocześnie zachowania parametrów elektrycznych na poziomie porównywalnym do parametrów anten stosowanych w systemach jednofunkcyjnych. Szybki postęp technologiczny pozwala współczesnym radarom realizować jednocześnie wiele funkcji, takich... więcej»

High temperature properties of thick-film and LTCC components (Damian Nowak, Mateusz Janiak, Andrzej Dziedzic, Tomasz Piasecki)
There is an increased demand for electronics that can work in harsh environment involving high temperature. Applications include sensors and actuators for control in petroleum and geothermal industry, process monitoring and distributed control systems in automotive and aerospace [1-3]. Complete extreme high-temperature electronic systems require active devices as well as proper passive components (eg. resistors, capacitors, inductors). There comes also the requirement for further miniaturization and integration of electronic components. Thick-film and LTCC (low temperature co-fired ceramics) technologies are well-established and relatively low-cost fabrication method of passives. Thus, they represent promising fabrication techniques to meet the demands for devices that are miniaturized and operate at high temperature [4-7]. This paper presents manufacturing process of thick-film and LTCC resistors, planar inductors and interdigital capacitors as well as their chosen electrical and stability properties in a wide frequency and temperature range. Test structures fabrication Square planar inductors and interdigital capacitors were made on alumina (96% Al2O3, 635 μm thick) or fired LTCC (DP951, 300 μm thick) substrates. The size of the fabricated components was 3×3 mm2 and 50 μm track width/50 μm spacing were designed. The inductors consist of 2 or 3 tu... więcej»

Design and realization of a microfluidic capillary sensor based on a silicon structure and disposable optrodes (Zbigniew Szczepański, Michał Borecki, Dariusz Szmigiel, Michael L. Korwin Pawlowski)
During the last years microfluidic sensors that use optical capillaries have gained an increasing importance due to their new applications as diagnostic tool in biotechnology, medicine and in environmental sciences. This was possible because the capillary enables multiparametric sensing [1-7] contrary to the classical optical fiber sensors [8], which find applications in physical measurements such as pressure and also magnetic field [9]. In this paper the improvements in the design of microfluidic sensors that use local heating in optical capillaries as a base of multiparametric diagnostics is presented [4]. The application of local heating opened interesting new possibilities for the sensors, that do not use any chemical sensitive layers or reagents, while raising specific issues relating to their construction, materials and technology [5]. The mentioned sensors can be used for in situ diagnostic in medicine and veterinary and as biofuel usability testers [10-12].The proposed microfluidic capillary sensor consists of a stabilized-intensity light source unit, a testing head with replaceable optical capillary, a heater and a detection unit. The optical capillary performs the functions of a liquid sample holder and at the same time of a multiparametric sensing element. The sensor operates in a multiparametric sensing mode, monitoring, registering and processing the indirect information such as the index of refraction, the boiling point, the vapour pressure, the heat capacity, the heat of fusion, the viscosity, the surface tension of the liquid and turbidity changes in a thermally forced measuring cycle. The measuring cycle is initiated by applying local heating to the sample [5]. The measuring cycle is controlled indirectly by changes in optical signals and temperatures [10]. The raw optical data are processed by an optoelectronic ci... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»