profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2012), also from March - year 2013.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3543-elektronika-konstrukcje-technologie-zastosowania-2012-12.html

 
W numerze m.in.:
Prediction of fatigue and sleep onset using HRV analysis (Predykcja zmęczenia i zasypiania z wykorzystaniem analizy HRV) (Małgorzata Szypulska, Zbigniew Piotrowski)
Research on sleep onset and fatigue is conducted in many scientific centres around the world by many research teams. The standard definition of the moment of sleep onset is based on changes in EEG, EOG, ECG and EMG, and usually reliably detects changes within a few seconds. When in an alert state, as long as a particular person has their eyes closed and at the moment of sleep onset, the EEG record shows a domination of alpha waves. However, the detection of SO (sleep onset) is much more complicated, for example due to the fact that the subjective perception of falling asleep does not always coincide with that specified and defined. During sleep onset a number of different parameters change in specific moments, but they do not coincide in time. The conclusion from this is that sleep onset is not a discrete occurrence but a continuous process. It has been observed that before and during sleep onset the power level in the bands VLF and LF decreases, which reflects a decrease in sympathetic system activity. However, an increase in the power of the HF band can be seen, which means movement toward parasympathetic domination [2, 5]. These trends persist along with the deepening of NREM sleep [4]. A significant increase in the value of RR intervals during sleep has also been noticed, although their variability decreased. The mean RR interval (RRI) increased (heart rate decreased) during SO. A significant change in the level of RR intervals occurred 30 s after sleep onset compared to the average RRI level for 7-9 minutes before SO [2]. Another indicator of sleepiness is a drop in the value of the LF/HF ratio. During sleep, it has minimum values [1]. HRV analysis The RR interval represents the length of the ventricular cardiac cycle, it is measured between two successive R waves and serves as an indicator of ventricular rate. It is also called the inter-beat interval. Heart rate variability is the degree of fluctuation in the length o... więcej»

Overheat security system for high speed embedded systems (Układ ochrony przed przegrzaniem dla szybkich systemów wbudowanych) (Maciej Frankiewicz, Adam Gołda, Andrzej Kos)
Considering the aspiration to make modern digital circuits faster and scaling down the technology researchers must take into account thermal effects. The goal is to find the optimal balance state between keeping the throughput of the system on the possible maximum level and decreasing power consumption of the device. Assuming that circuit cannot exceed acceptable maximum temperature for proper work it should be controlled in the way that keeps its temperature as close to the permissible limit as possible with minimal fluctuations. To achieve that some dynamic control systems have been developed including: dynamic voltage scaling (DVS), dynamic clock throttling (DCT) and dynamic frequency scaling (DFS) [1]. Despite former achievements on the field some further investigations must be done to improve thermal behaviour of the circuit. The paper describes a structure of the wide-range oscillator which generates the frequency dependent on the present temperature of the silicon die. The structure of the circuit, designed and fabricated in CMOS LF 150 nm (1.8 V), technology will be presented in the next sections. The temperature-controlled oscillator (TCO) works with the OctaLynx 8-bit microcontroller which is a prototype implemented in the same silicon die and created for test purposes [2]. Motivation for Temperature-Controlled Oscillator The concept of temperature-controlled oscillator origins from the fact that circuit working with higher frequency consumes more power. That means that if the silicon die reaches high temperature range it is necessary to lower the clock rate and as a consequence cool the chip down. The problem is how to manage the frequency of the clock to minimize temperature fluctuations and let the circuit work possibly fast. Simpler dynamic systems sensed the temperature and when it crossed fixed reference level just divided the frequency of clock signal. This action can be not efficient enough because as it is... więcej»

Problemy występujące podczas pomiarów przepięć w sieciach SN (Ryszard Beniak, Arkadiusz Gardecki )
Jednym z kryteriów oceny jakości energii elektrycznej są przepięcia napięciowe. Wyróżniamy trzy zasadnicze rodzaje przepięć: krótkotrwałe wzrosty napięcia, przepięcia oscylacyjne oraz przepięcia impulsowe. Natura ich powstawania może być różnorodna. Przyczyną ich mogą być np. wyładowania atmosferyczne ale także manewry łączeniowe na liniach zasilających oraz w rozdzielniach a także krótkotrwałe jednofazowe zwarcia [1]. Może to być powodem poważnych trudności związanych z działaniem nowoczesnych systemów kontroli i sterowania procesami technologicznymi [2]. W referacie przedstawione zostaną techniczne uwarunkowania pomiarów jednego z rodzajów zakłóceń tego typu pochodzących od wyłączników próżniowych w sieci SN o napięciu 20 kV. Przyrząd pomiarowy wykorzystywany do pomiaru przepięć Krótkotrwałe wzrosty napięcia charakteryzują się wzrostem amplitudy napięcia powyżej 110% napięcia znamionowego i czasie trwania od 0,6 s do 60 s. Przepięcia oscylacyjne natomiast wyróżnia czas trwania od 5 μs do 50 ms oraz zmiana amplitudy nawet do 8 krotnej wartości napięcia znamionowego. Przepięcia impulsowe można scharakteryzować przy pomocy czasu narastania zbocza który zawiera się w przedziale 5 ns…0,1 ms oraz czasu trwania 50 ns…1 ms. Z informacji podanej w poprzednim akapicie wynikają specyficzne wymagania dotyczące parametrów sprzętu pomiarowego umożliwiającego pomiar dla większości podanych zakresów w sieciach elektroenergetycznych SN (20 kV). Wymagania te możemy scharakteryzować następująco: - częstotliwość pomiarowa powinna być jak największa, - możliwie dokładny pomiar prądów - jak najdokładniejszy pomiar napięć, - odporność sprzętu pomiarowego na zakłócenia, - zabezpieczenie układu pomiarowego przed zwarciami międzyfazowymi oraz zwarciami faza-masa. Do wykonania pomiarów stanów dynamicznych podczas zadziałania wyłącznika próżniowego w warunkach przemysłowych użyto modułowego systemu pomiarowego wykorzystującego el... więcej»

Dostrajanie regulatora z pominięciem eksperymentu identyfikacji obiektu przy użyciu Imperialist Competitive Algorithm (Michał Awtoniuk)
Wyniki badania prowadzone przez najznamienitszych naukowców świata wskazują na to, że 90% pętli regulacji działających w przemyśle bazuje na algorytmie PID [1, 2]. Olbrzymia popularność tego algorytmu nie przekłada się jednak na jakość regulacji. Badania firmy Honeywell wskazują, że wiele spośród pętli regulacji pozostaje otwarta [3]. Sytuację tą można poprawić wykorzystując dostępne w sterownikach PLC procedury automatycznego doboru nastaw. Jest to rozwiązanie korzystne ze względu na to, że takie podejście nie wymaga specjalistycznej wiedzy. Zazwyczaj producenci sterowników udostępniają w ramach wsparcia technicznego dokumentację, która krok po kroku opisuje co należy zrobić aby uruchomić funkcję autotuningu. Innym rozwiązaniem jest ręczny dobór parametrów regulatora. W tym przypadku konieczna jest już niestety pewna wiedza teoretyczna. Zazwyczaj utalentowany automatyk-praktyk jest w stanie dobrać nastawy zdecydowanie lepsze od nawet najskuteczniej działającej procedury strojenia automatycznego. W przytoczonych wcześniej badaniach można również znaleźć informację na temat zamkniętych pętli regulacji. Okazuje się, że zaledwie połowę z nich cechuje zadowalająca jakość [3]. Fakt ten powinien być bodźcem powodującym głębszą analizę tychże układów. Obiekt regulacji Doświadczenia były prowadzone na obiekcie schematycznie przedstawionym na rysunku 1. Jest to zbiornik z regulowanym poziomem wypełnienia wodą przy pomocą pompy. Jej wydatek jest sterowany sygnałem analogowym u pochodzącym ze sterownika PLC. Sygnał rozpatrywany jest w zakresie 0..10 V, gdzie 0 V oznacza całkowite wyłączenie pompy, natomiast 10 V pracę z maksymalnym wydatkiem. W omawianym układzie regulacji, sygnał ten będzie traktowany jako wyjście regulatora. Otwarty zawór Z2 powoduje samoczynny wypływ cieczy ze zbiornika. Stan tego zaworu może diametralnie zmienić obiekt sterownia. W przypadku, gdy zbiornik będzie szczelny, bez żadnego wypływu cieczy, wówczas obiekt ... więcej»

Badania porównawcze parametrów powierzchni gładkich metodami rozpraszania światła (JANUSZ JAGLARZ, WOJCIECH KAPŁONEK, WŁODZIMIERZ LIPIŃSKI, MARCIN PAWEŁCZAK, ROMUALD SYNAK)
Praktyczne wykorzystanie zjawiska rozpraszania światła do pomiaru wysokości nierówności powierzchni charakteryzujących się dużą gładkością zostało zapoczątkowane przez Bennetta i Porteusa, którzy zbudowali pierwszy układ działający na zasadzie pomiaru całkowitej mocy promieniowania rozproszonego przez powierzchnię TIS (ang. Total Integrated Scatter) [1]. Później pojawiły się inne sposoby zastosowania tego zjawiska, polegające m.in. na pomiarze kątowego rozkładu natężenia promieniowania rozproszonego ARS (ang. Angle-Resolved Scatter) [3]. Rozkład taki można wyznaczyć w wybranej płaszczyźnie i przedstawić go za pomocą indykatrys rozpraszania. Istnieje również możliwość jego przedstawienia przestrzennego. W tym przypadku stosowana jest dwukierunkowa funkcja rozkładu reflektancji oznaczana akronimem BRDF (ang. Bidirectional Reflectance Distribution Function) lub BSDF (Bidirectional Scatter Distribution Function). Metody te i technika pomiarów została szeroko opisana w literaturze światowej (np. w pracach Stovera [16], Benett i Mattssona [2]), a także w monografiach krajowych [8, 12]. Zwięzły opis metod i przegląd aparatury pomiarowej podano też w pracy [18]. Pomimo powstania wielu innych technik bezstykowej oceny powierzchni gładkich, np., interferometrii i mikroskopii sił atomowych, umożliwiających uzyskanie topografii powierzchni i jej charakterystykę za pomocą bardzo wielu parametrów, metody rozpraszania światła są w dalszym ciągu intensywnie rozwijane. W wielu przypadkach, np. przy kontroli wyrobów istotny jest krótki czas pomiaru, niski koszt urządzenia i możliwość jego instalacji nawet w warunkach produkcyjnych. W takich warunkach często wystarczające jest zmierzenie kilku parametrów, a nawet jednego, którym jest najczęściej średnie kwadratowe odchylenie wysokości nierówności. Dlatego oprócz dawniej już opisywanych urządzeń przeznaczonych do takich celów [17, 22, 23] ostatnio pojawiło się wiele nowych aparatów przenośnych [... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3518-elektronika-konstrukcje-technologie-zastosowania-2012-11.html

 
W numerze m.in.:
Światłowodowy czujnik temperatury progowej na bazie wypełnionego włókna mikrostrukturalnego (Paweł Marć, Paweł Piliszek, Tomasz Nasiłowski, Michał Murawski, Michał Szymański, Leszek R. Jaroszewicz, Katarzyna Pawlik )
Fotoniczne włókna światłowodowe (PCF) lub inaczej mikrostrukturalne (MSF) są coraz częściej wykorzystywane w telekomunikacji i czujnikach światłowodowych. Możliwość zmiany geometrii otworów wewnętrznych,tworzących mikrostrukturę włókna prowadzącą wiązkę świetlną, pozwala modyfikować jego dyspersję, strukturę modową, dwójłomność czy też nieliniowość, a dzięki tym nowym własnościom stosować je tam gdzie wcześniej nie było to możliwe. Łatwy dostęp do otworów powietrznych pozwala również na wprowadzanie różnego typu materiałów do jego wnętrza. Najczęściej stosowane materiały to polimery [1], ciekłe kryształy [2, 3], specjalizowane ciecze immersyjne [4], ciecze z nanocząstakim [5], czy też złożone substancje organiczne [6]. Wykorzystanie procesu zwilżania kapilarnego jest najczęściej stosowaną techniką wypełniania mikrostruktury włókna [1-6]. Tak przygotowane włókna stają się podstawą konstrukcji różnego typu elementów światłowodowych takich jak przełączniki optyczne, tłumiki optyczne czy też optody czujników chemicznych. W niniejszej pracy do wytworzenia czujnika temperatury progowej wykorzystano komercyjnie dostępne włókno światłowodowe typu LMA10 produkowane przez firmę NKT Photonics [7]. Zostało ono wypełnione substancją organiczną wykorzystując do tego celu wyżej wspomnianą technikę, a optodę czujnika tworzy patchcord światłowodowy zakończony standardowymi złączami FC/PC. Światłowodowy czujnik progowej wartości temperatury Opracowana w Zakładzie Technicznych Zastosowań Fizyki WAT aparatura pozwala na wyp... więcej»

Właściwości modowe światłowodu mikrostrukturalnego z podwójnym płaszczem do zastosowań w nieliniowych układach diagnostycznych (Hanna Stawska, Elżbieta Bereś-Pawlik )
Obecnie wielofotonowe systemy endoskopowe stają się podstawowym narzędziem badawczym, ze względu na zdecydowanie mniejsze rozmiary oraz niższe koszty w porównaniu z konwencjonalnymi mikroskopami wielofotonowymi. Ponadto, endoskopy, ze względu na swój kształt, mogą być wykorzystywane w badaniach in vivo i aplikacjach klinicznych. Tak więc, w ostatnim czasie badania koncentrują się na rozwoju endoskopów o niewielkich wymiarach, które umożliwiają badania in vivo przy jednoczesnym zachowaniu zdolności obrazowania, podobnej do standardowych mikroskopów wielofotonowych. W chwili obecnej, istnieje kilka problemów związanych z budową takich endoskopów a mianowicie[ 1-4]: - skuteczne dostarczenie ultrakrótkich impulsów wzbudzających do próbki, - wydajne zbieranie sygnału fluoroscencyjnego badanej próbki, - miniaturyzacja sondy. Najczęściej stosowana konstrukcja sondy endoskopowej zakłada wykorzystanie światłowodu jednomodowego do dostarczenia ultraszybkiego sygnału pobudzającego, natomiast światłowodu wielomodomowego do odbierania sygnału fluoroscencyjnego z badanej próbki. Konstrukcja ta ma jednak ograniczenia, związane z tym, że światłowód nadawczy nie jest współosiowy z światłowodem odbiorczym, co powoduje zmniejszenie wydajności odbierania sygnału fluorescencyjnego badanej próbki. Aby zwiększyć wydajność odbierania stosuje się układy mikro-elektro -mechaniczne. Jednak takie układy są bardzo wrażliwe na kalibracje oraz zastosowanie ich powoduje zdecydowane zwiększenie wymiarów sondy. Dlatego jako alternatywę do przedstawionych wyżej konstrukcji stosuje się układ wyposażony w światłowód dwupłaszczowy. W tym przypadku, rdzeń tego światłowodu służy do przekazania sygnału wzbudzającego, natomiast wewnętrzny płaszcz służy do odbierania sygnału fluorescencyjnego. Niestety, wszystkie światłowody używane w wyżej wymienionych konstrukcjach charakteryzują się dużą dyspersją w okolicach 100 ps/nmkm. Dlatego też, konstruowane obecnie endos... więcej»

Światłowodowy czujnik siły bazujący na interferometrze Sagnaca z dwójłomnym światłowodem fotonicznym (Cezary Kaczmarek)
Interferometr Sagnaca zawierający odcinek światłowodu dwójłomnego ma wiele właściwości, które czynią go podzespołem o szerokim zastosowaniu zarówno w telekomunikacji jak i w sensoryce światłowodowej. Jedną z tych właściwości jest niezależność od polaryzacji wejściowej wiązki światła. Inną jest periodyczność widma wiązki wyjściowej i odbitej interferometru, którego okres zależy od długości odcinka światłowodu dwójłomnego, a nie od długości pętli. Interferometr Sagnaca ze światłowodem dwójłomnym jest wykorzystywany w telekomunikacji optycznej jako filtr WDM [1]. W sensoryce podzespół ten ma zastosowanie jako czujnik wielu wielkości fizycznych i chemicznych [2, 3] oraz jako dyskryminator długości fali dla czujników z siatkami Bragga [4]. Zastosowanie w interferometrze Sagnaca dwójłomnego światłowodu fotonicznego zamiast konwencjonalnego światłowodu dwójłomnego, radykalnie poprawia parametry metrologiczne i użytkowe tego podzespołu. Ta poprawa wynika z właściwości dwójłomnych światłowodów fotonicznich, głównie bardzo małego wpływu zmian temperatury i znacząco większej dwójłomności modowej w porównaniu z konwencjonalnymi światłowodami dwójłomnymi. Dla interferometru ze światłowodem dwójłomnym produkowanego przez Blaze-Photonics zmiany okresu widma pod wpływem zmian temperatury wynoszą 0,05 pm/K, natomiast przesunięcie widma pod wpływem zmian temperatury wynosi 0,25...0,3 pm/K [5, 6]. Duża wartość dwójłomności światłowodów fotonicznych pozwala znacząco zredukować ich wymaganą długość w czujnikach z interferometrem Sagnaca. W artykule przedstawiono czujnik siły o zakresie 0...50 N, w układzie interferometru Sagnaca z dwójłomnym światłowodem fotonicznym typu PM-1550-01 wyprodukowanym przez Blaze... więcej»

System do pomiaru Apertury Numerycznej w światłowodach specjalnych (ŁUKASZ Ostrowsk, MICHAŁ Murawski, MICHAŁ Szymański, Zbigniew Hołdyński, TADEUSZ Tenderenda, PAWEŁ Mergo, PAWEŁ Marć, Leszek R. Jaroszewicz, TOMASZ Nasiłowski)
W światłowodach klasycznych, światło jest prowadzone w materiale na podstawie różnicy we współczynniku załamania pomiędzy rdzeniem a płaszczem. Apertura Numeryczna (NA) w tym typie światłowodów wykazuje niewielkie właściwości dyspersyjne w całym spektrum, zatem pomiar dla pojedynczej długości fali jest zupełnie wystarczający do scharakteryzowania NA. Inną sytuację mamy w przypadku światłowodów mikrostrukturalnych (MSF) gdzie światło jest prowadzone na podstawie geometrii wewnętrznych otworów. W tym typie światłowodów NA zmienia się wraz ze wzrostem długości fali. Właściwości NA w zależności od rodzaju prowadzenia przedstawione są na rysunku 1. Odmienny charakter NA dla różnych włókien był motywacją do stworzenia układu precyzyjnego wyznaczania NA w światłowodach specjalnych. Dzięki tak zdobytej wiedzy o aperturze numerycznej mierzonych światłowodów możliwe jest optymalizowanie efektywnego łączenia, sprzęgania oraz wprowadzania światła do różnorodnych typów światłowodów[1]. Ponadto w światłowodach nie posiadających symetrii kołowej NA może się zmieniać nie tylko z długością fali ale, również z obrotem włókna wokół własnej osi. Dlatego system do ... więcej»

Barierowe struktury detekcyjne - nowe możliwości (Piotr Martyniuk, Andrzej Kowaleski, Waldemar Gawron, Antoni Rogalski)
Konieczność chłodzenia kriogenicznego detektorów promieniowania podczerwonego IR (Infrared Radiation) jest główną przeszkodą ograniczającą ich szerokie zastosowania. Biorąc ten fakt pod uwagę, szczególne znaczenie mają prace dotyczące niechłodzonych HOT (Higher Operation Temperature) detektorów z zakresu średniej MWIR (Medium Wave Infrared Radiation) 3…8 μm i dalekiej podczerwieni LWIR (Long Wave Infrared Radiation) 8…16 μm. Kluczowym elementem w procesie projektowania wysokotemperaturowych struktur detekcyjnych pracujących w wymienionych zakresach IR jest maksymalizacja wydajności kwantowej i minimalizacja prądu ciemnego. Wśród mechanizmów generujących prąd ciemny w strukturze detekcyjnej należy wyróżnić mechanizmy tunelowe pasmo - pasmo BTB (Band - To - Band Tunneling), tunelowanie przez poziomy pułapkowe TAT (Trap Assisted Tunneling), procesy generacyjno - rekombinacyjne (GR) Augera, procesy GR przez centra pułapkowe Shockley-Read-Halla (SRH) i prądy upływności powierzchniowej. Prądy uwarunkowane procesami GR Augera i procesami tunelowymi BTB/TAT można teoretycznie ograniczyć poprzez konstrukcje elementów składowych detektora z supersieci (SLs) II rodzaju T2SLs (Type II Superlattices), szczególnie z zwiŕzków naleýŕcych do tzw. rodziny 6.1 Ĺ AIIIBV (InAs, GaSb i AlSb) [1]. Niekorzystne, z punktu widzenia konstrukcji wysokotemperaturowych detektorów, procesy GR SRH i prądy upływności powierzchniowej można zredukować poprzez implementację odpowiednio dopasowanych barier do struktury detekcyjnej. Dobór bariery odgrywa decydującą rolę ze względu na dopasowanie sieciowe, jak również wysokość bariery w paśmie przewodnictwa i paśmie walencyjnym. Często wysokość energetyczna barier jest przypadkowa i trudno ją kontrolować technologicznie. Pierwszymi strukturami barierowymi były detektory heterozłączowe HgCdTe stosowane w celu zwiększenia osiągów detektorów poprzez ograniczanie prądów dyfuzyjnych z obszaru a... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3483-elektronika-konstrukcje-technologie-zastosowania-2012-10.html

 
W numerze m.in.:
Analityczna metoda opisująca działanie układów arbitrażu z rotacją priorytetów (Krzysztof Taborek)
W systemach wieloprocesorowych, ale także w wielu innych urządzeniach np. telekomunikacyjnych, stosuje się tzw. układy arbitrażu (zwane często po prostu arbitrami ). Ich głównym zadaniem jest rozstrzygać konflikty, które powstają gdy wielu klientów (aktywne podzespoły) chce jednocześnie wykorzystać wspólny zasób systemu. W systemie wieloprocesorowym tymi klientami są procesory, które chcą wymieniać dane ze wspólną pamięcią (zwaną także pamięcią globalną). W danym momencie tylko jeden z nich może to robić i układ arbitrażu wybiera spośród zgłaszających się procesorów jednego, któremu udostępnia magistralę, łącząc go z pamięcią globalną. Układ arbitrażu dokonuje tego wyboru stosując określony algorytm (protokół) obsługi zgłoszeń. W układach arbitrażu można zaimplementować różne algorytmy obsługi zgłoszeń np.: FCFS (FIFO), LCFS (LIFO), czy też różne protokoły priorytetowe. W systemach wieloprocesorowych bardzo często stosowane są układy arbitrażu, wykorzystujące protokoły z tzw. rotacją priorytetów [3]. Rodzaje protokołów z rotacją priorytetów Można wyróżnić kilka typów protokołów obsługi z rotacją priorytetów. Działanie dwóch spośród nich pokazano graficznie na rys. 1. Działanie najbardziej popularnego tego rodzaju protokołu przedstawiono na rys. 1 (lewa strona). Algorytm ten można szczegółowo nazwać - z pełną rotacją priorytetów do najniższego. Na tym rysunku i w dalszej części artykułu będzie on oznaczany symbolicznie jako RL. Dla tego rodzaju algorytmu, kiedy arbiter wybrał klienta (zgłoszenie od procesora) o k-tym priorytecie to, po jego obsłudze, klientowi temu nadawany jest najniższy z możliwych priorytetów w systemie. Klienci o wyższych priorytetach (0,... k-1) zachowują swoje priorytety, natomiast klienci o niższych priorytetach (k+1,... K-1) zwiększają swój priorytet o jeden. Algorytm ten charakteryzuje się dużą sprawiedliwością (fairness) w obsłudze klientów [3]. Drugi z protokołów, których działanie przedstawiono na... więcej»

Techniki rozpylania magnetronowego DC, MF i RF do nanoszenia cienkich warstw WO3 (Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz Stapiński)
Henryk Jankowski, Konstanty Marszałek, Jerzy Sokulski, Yevhen Zabila, Tomasz StapińskiOtrzymywanie warstw elektrochromowych na dużych powierzchniach stanowi poważny problem technologiczny i jest barierą w produkcji urządzeń elektrochromowych zmieniających charakterystykę transmisji pod wpływem małego napięcia [1, 2]. Ważnym zastosowaniem zjawiska elektrochromowego są tzw. inteligentne okna (smart windows) [3]. Opracowanie technologii otrzymywania cienkowarstwowych struktur elektrochromowych w oparciu o warstwy tlenku wolframu ma duże znaczenie z uwagi na problematykę bilansu energetycznego budynków z dużymi przeszkleniami [4, 5]. Dlatego też istotne jest rozwijanie tanich technologii umożliwiających nakładanie warstw na duże powierzchnie. Zagadnienia te wpisują się w nakreślone przez Unię Europejską programy oraz w problematykę rozwijanych w Polsce odnawialnych źródeł energii (OZE). W prezentowanej pracy przedstawiono badania trzech magnetronowych technik nanoszenia w celu określenia przydatności do rozpylania metalicznych tarcz wolframowych. Analiza procesu reaktywnego rozpylania konieczna jest do znalezienia optymalnych warunków technologicznych dla nanoszenia powłok na duże powierzchnie. Uzyskane warstwy WO3 stanowiły elementy aktywne badanych układów elektrochromowych [3]. System nanoszenia System technologiczny umożliwia nanoszenie warstw metodami magnetronowego reaktywnego rozpylania DC (unipolarnego), AC (bipolarnego) oraz RF (częstotliwości radiowej 13,56 MHz). Cienkie warstwy WO3 otrzymywano metodami magnetronowego reaktywnego rozpylania stałoprądowego (DC) i przy częstotliwościach średnich (MF) oraz radiowych (RF). Do otr... więcej»

Zastosowanie mikrokontrolera do sterowania ploterem (Wiesław Madej, Paweł Majchrzak)
Obecnie na rynku istnieje wiele wyspecjalizowanych, dokładnych i niezawodnych ploterów o różnorodnej konstrukcji. Niestety w większości przypadków są to rozwiązania stosunkowo drogie. Dlatego też zrodził się pomysł próby opracowania w pełni funkcjonalnego i taniego systemu sterowania ploterem. Jedną z dróg rozumowania może być próba wykorzystania interfejsu IEEE 1284 zwanego również portem LPT. Port LPT posiada 8 dwukierunkowych linii danych, 4 linie nadające sygnały sterujące oraz 5 linii odbierających sygnały kontrolne. Tak więc w najprostszej konfiguracji złącze zapewnia możliwość uzyskania jednocześnie 12 sygnałów wyjściowych oraz 5 sygnałów wejściowych. Fakt ten, jak i łatwość dostępu do rejestrów kontrolnych i sterujących interfejsu był powodem powstania kilku amatorskich lub komercyjnych aplikacji np.: Mach2, STEP2CNC, KCam, Master5, TurboCNC. Pozwalają one w prosty sposób sterować za pomocą jednego interfejsu LPT nawet czterema silnikami krokowymi. Silniki muszą być zasilane przez mniej lub bardziej złożone sterowniki, które wymagają trzech sygnałów sterujących: - uaktywnienie sterownika, - określenie kierunku obrotowego silnika, - sygnał taktujący kolejne kroki silnika. Poza sygnałami sterującymi dysponujemy również możliwością monitorowania sygnałów kontrolnych z wyłączników krańcowych lub wyłączników bezpieczeństwa. Rozwiązanie choć proste w realizacji i w pełni funkcjonalne, nie jest jednak pozbawione wad. Głównym problemem może być fakt ograniczonej liczby sygnałów kontrolnych, jak i ilości sterowanych silników. Należy również zaznaczyć iż standard IEEE 1284 przechodzi niejako do lamusa. Wypierany jest przez inne interfejsy takie jak standard USB czy choćby FireWire. Dlatego też niniejsza praca ma na celu próbę opracowania systemu, który pozwoli na przeniesienie realizacji funkcji sterowania ploterem na zewnątrz komputera. Rola komputera ograniczona zostanie jedynie do wysyłania poleceń kontrolnych i odbierania... więcej»

Optyczne linie transmisyjne pracujące w zakresie wysokich częstotliwości (Bartłomiej Guzowski, Andrzej Majocha)
We współczesnym świecie przetwarzanie i przesyłanie informacji staje się coraz ważniejsze. Wszyscy chcieliby przesyłać coraz szybciej i coraz więcej wiadomości. Dlatego też sieci telekomunikacyjne stale muszą się rozwijać, aby dorównać nowym wymaganiom. Tradycyjne sieci oparte na połączeniach miedzianych mają stosunkowo niską przepustowość: sieci ISDN oferują 144 kb/s lub 1984 kb/s [1, 2]; a sieci wykorzystujące standard ATM (ang. Asynchronous Transfer Mode) od 100 do 155 Mb/s [1, 3]. Przesyłanie sygnałów posiadających duże częstotliwości poprzez kable miedziane wiąże się z wieloma problemami. Takie sygnały generują i jednocześnie są podatne na zakłócenia elektromagnetyczne, utrudniając tym samym prawidłowe odczytanie odebranego sygnału. Trzeba więc stosować przewody posiadające specjalne ekrany, bądź też zmniejszać częstotliwość sygnału. W takich sieciach występują opóźnienia sygnału, a ciężar i rozmiary kabli miedzianych uniemożliwiają łatwą i prostą instalację. Drugim bardzo poważnym problemem, przed którym staje współczesna elektronika, to wzrost złożoności systemów zintegrowanych IS (ang. Integrated Systems). Wzrost długości ścieżek metalicznych powoduje niepożądany wzrost ich elementów pasożytniczych (RLC), przez co niemożliwe staje się przesyłanie sygnałów o bardzo wysokiej częstotliwości [4], co powoduje, że układy IS pracują aktualnie z częstotliwością nie wyższą niż kilkaset MHz. Dodatkowo, wraz z rozwojem układów VLSI rośnie liczba wyprowadzeń pojedynczego układu, która jak przewidywano [5], w roku 2010 przekroczyła wielkość 660 nóżek. Liczba połączeń pomiędzy elementami układu IS rośnie lawinowo, a realizacja tak dużej ilości połączeń na podłożu układu IS staje się praktycznie niemożliwa. Innym ograniczeniem połączeń elektrycznych w układach IS jest ich wrażliwość na zakłócenia elektromagnetyczne, co może prowadzić do wadliwej pracy całego systemu [6], tym bardziej, że same połączenia elektryczne pracując z częst... więcej»

Możliwości zastosowania elementów rozszerzonej rzeczywistości w urządzeniu fotografii laserowej (Marek Piszczek, Mikołaj Zarzycki)
Żyjemy w społeczeństwie, w którym informacja a przede wszystkim dostęp do niej, stanowi bardzo cenne i pożądane dobro. Rozwój technologiczny oferuje nam dostęp do bardzo zróżnicowanych źródeł udostępniających dane dzięki różnym technologiom. To dzięki wynalezieniu druku mamy m.in. tak wszechstronny dostęp do materiałów tekstowych i graficznych, a dzięki rozwojowi kinematografii, a później telewizji dostęp do informacji wizualnych stał się jeszcze bardziej powszechny (rys. 1). Dzięki wynalezieniu telefonu i rozwoju radiotechniki audio-informacje przekazywane są szybko i na duże odległości (rys. 2). Zwróćmy jednak uwagę, że każda z tych technologii jest ściśle dostosowana do naszych możliwości percepcyjnych audio-wizualnych. Zdajemy sobie jednak sprawę z możliwości naszych modalności zmysłowych. Tworząc nowe rozwiązania budujemy swego rodzaju protezy pozwalające nam zdobywać informacje jakich nie dostarczają nam nasze zmysły. Każda z wymienionych technologii w istotny sposób przyczyniła się do rozwoju społeczeństwa informacyjnego. Ważniejsze jest jednak to, że w dalszym ciągu poszukujemy nowych, bardziej wydajnych rozwiązań. W Instytucie Optoelektroniki WAT już od kilku lat prowadzone są badania m.in. nad technologiami, które mogą mieć swój wkład w rozwój potencjału systemów informacyjnych. Jedno z tych rozwiązań dotyczy metody kadrowania przestrzenno- czasowego, a drugie tzw. Rozszerzonej Rzeczywistości. Pierwsze z rozwiązań dotyczy możliwości obrazowania ściśle zdefiniowanej trójwymiarowej przestrzeni za pomocą Urządzenia Fotografii Laserowej (UFL). Uzyskiwane dwuwymiarowe obrazy "fragmentu przestrzeni 3D" nie są efektem syntezy komputerowej lecz wynikiem bezpośredniego procesu akwizycji danych. Druga z technologii dotyczy sposobu syntezy informacji będącej połączeniem danych świata realnego oraz danych syntezowanych komputerowo. Wynikowa informacja zostaje udostępniona użytkownikowi w sposób dostosowany do jego możliwości p... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3442-elektronika-konstrukcje-technologie-zastosowania-2012-9.html

 
W numerze m.in.:
Wpływ wzajemnego oddziaływania cieplnego emiterów promieniowania na pracę matrycy zbudowanej na bazie GaN (Maciej Kuc, Robert Piotr Sarzała)
Optoelektroniczne emitery promieniowania krótkofalowego zbudowane na bazie azotku galu, do których należą diody elektroluminescencyjne (Light Emitting Diode - LED) oraz diody laserowe (Laser Diode - LD) są obiektem nieustannego zainteresowania od przeszło piętnastu lat. Aby sprostać rosnącym wymaganiom stawianym przez dynamicznie rozwijający się rynek komercyjny wykorzystujący te przyrządy, w wielu ośrodkach na całym świecie trwają bardzo intensywne prace nad poprawą ich parametrów eksploatacyjnych [1]. Emitery azotkowe znajdują zastosowanie przede wszystkim w zapisie i odczycie dysków optycznych, wyświetlaczach, a dodatkowo w spektroskopii, medycynie i biotechnologii. Obecnie obserwuje się wzrost zapotrzebowania na znaczące zwiększenie mocy emitowanej z tych urządzeń przy zachowaniu jak najdłuższego czasu ich stabilnej pracy z falą ciągłą (Continous Wave - CW) w temperaturze pokojowej (Room Temperature - RT) tj. w warunkach typowych dla ich zastosowań komercyjnych. Maksymalna moc, jaką można otrzymać z pojedynczego emitera jest ograniczona i w przypadku azotkowych laserów wąskopaskowych wynosi ok. 300 mW (dla paska o szerokości 2 μm [2]). Aby otrzymać większą moc promieniowania, na bazie takich emiterów próbuje się obecnie konstruować jednowymiarowe matryce [3, 4], choć jak dotąd bez szczególnych sukcesów. Jednakże, warto zauważyć, że analogiczne matryce projektowane na bazie materiałów arsenkowych (dla długości fali z zakresu czerwieni i podczerwieni) pozwalają osiągnąć moc wielokrotnie większą od tej, jaką można osiągnąć w przypadku arsenkowych emiterów z pojedynczym paskiem laserowym [5]. Oznacza to, że podobnych parametrów można by oczekiwać od matryc azotkowych. Zastosowanie takich matryc wstępnie przewidywane jest m.in. w projektorach [1] i drukarkach laserowych [3, 4]. Moce wyjściowe rzędu 1 kW z matrycy laserów półprzewodnikowych (arsenkowych) osiągnięto przede wszystkim dzięki optymalizacji ich struktury pod wz... więcej»

Mikro- i nanostruktury krzemowe jako materiał termoelektryczny (Marcin Turczyński, Zbigniew Lisik)
Pierwsze generatory o mocy rzędu kilku kilowatów zostały zaprezentowane przez rosyjskich i amerykańskich naukowców w latach 50. XX wieku i znalazły zastosowanie w misjach kosmicznych. Obecnie generacja termoelektryczna skupiona jest na odzyskiwaniu energii cieplnej traconej podczas wielu procesów technologicznych, a najczęściej stosowanym materiałem do budowy elementów termoelektrycznych jest BiTe oraz jego stopy (np. z antymonem czy selenem). Niestety sprawność generatorów budowanych z tych materiałów nie przekracza 5%, a jedną z ich największych wad jest niska maksymalna temperatura pracy wynosząca 300°C. Maksymalna moc dla elementów typu n oraz typu p jest osiągana przy 100°C. Materiał ten jest także zbyt drogi by budowa termogeneratorów na dużą skalę była opłacalna, dlatego ogólnodostępny krzem może stać się rozwiązaniem wyżej opisanego problemu. Krzem jest wykorzystywany od wielu lat do budowy praktycznie każdego urządzenia elektronicznego co powoduje, że technologia jego wytwarzania jest doskonale opanowana, a jego koszt produkcji jest relatywnie niski. Co więcej, krzem charakteryzuje się dobrymi właściwościami elektrycznymi takimi jak współczynnik Seebeck’a oraz przewodność elektryczna, które są składowymi współczynnika efektywności ZT = α2δT/λ, gdzie α - współczynnik Seebeck’a, δ - przewodność elektryczna, λ - przewodność cieplna, T - temperatura bezwzględna. Niestety, dużą jego wadą jest wysoka przewodność cieplna λ, która także jest częścią parametru ZT i jest około sto razy większa niż dla BiTe (porównanie właściwości termoelektrycznych zostało przedstawione w tabeli). Przewodność cieplna jest sumą dwóch przewodności składowych λ = λ l + λ e, sieciowej oraz elektronowej. Pierwsza z nich związana jest z budową krystalograficzną, w której ciepło przewodzą fonony, w drugiej natomiast odpowiedzialne są za to elektrony. Porównanie właściwości termoelektryczny... więcej»

Features extraction system for automatic speech recognition core mapping into an irregular Network on Chip (Piotr Dziurzański, Tomasz Mąka)
As speech technologies become more and more prevalent they require efficient algorithms in its back end. This demand is required for fulfill speech processing time constrains since human speech communication is characterized by its dynamic behaviour. The most popular example of speech processing system is Automatic Speech Recognition (ASR). ASR system requires at least two modules to accomplish speech recognition in its basic form: feature extraction, extracting descriptor values for input speech data, and data classification [1]. The ASR processing is typically computational-intensive but it can be split into stages to be implemented in separate computational units. Thanks to this property they can benefit from parallel and distributed processing working in a pipeline-like way and transmitting each other streams of relatively large, but usually fixed, amount of data. In these applications, it is usually required to keep an assumed quality level of service and meet real-time constraints [10]. Multi Processor Systems on Chips (MPSoCs) are often considered as suitable hardware implementations of these applications [5]. As each processing unit of a MPSoC can realize a single stage of streaming application processing, it is still problematic to connect these units together. The simplest point to point (P2P) connections require too much space, whereas bus-based connections result in large number of conflicts and, consequently, despite various arbitrage techniques decrease the overall performance of the whole system [7]. Moreover, both P2P and bus-based realizations do not scale well with the constantly increasing number of independent Intellectual Property (IP) cores (i.e., computational units) required by contemporary devices dealing with a number of various algorithms in a single system [2]. In order to omit these obstacles, the packet-based Network-on-Chip (NoC) paradigm for designs of chips realizing distributed computation has... więcej»

Test stabilografii nadążnej (Zenon Kidoń, Jerzy Fiołka)
Do oceny stabilności układu utrzymywania równowagi człowieka powszechnie wykorzystuje się stabilografię statyczną. Podstawowym narzędziem stosowanym w tej metodzie jest platforma stabilograficzna wraz ze specjalnym oprogramowaniem. Za jej pomocą rejestrowany jest sygnał stabilograficzny opisujący zmiany położenia w czasie punktu przyłożenia wypadkowej sił nacisku na płaszczyznę platformy, tzw. punkt COP, (ang. Center of Pressure) [1]. W czasie badania, które trwa zwykle 30…60 sekund, pacjent proszony jest o możliwie najlepsze utrzymywanie równowagi w pozycji stojącej. Wyróżnia się przy tym wariant z oczami otwartymi i zamkniętymi. Po otrzymaniu tych wskazówek następuje rejestracja sygnału [2]. Uzyskana w ten sposób trajektoria zawiera informację o sprawności całego układu utrzymywania równowagi, jak i jego poszczególnych składowych (na przykład: ośrodkowego układu nerwowego czy błędnika). Ponadto, rozwijaną w ostatnich latach dziedziną zastosowań stabilografii jest diagnozowanie oraz ocena postępów w rehabilitacji wad postawy oraz uszkodzeń układu mięśniowo-kostnego, zwłaszcza dolnej partii ciała człowieka [3]. Nowe możliwości w zakresie zastosowań stabilografii statycznej w diagnostyce medycznej i rehabilitacji stwarza wprowadzenie biologicznego sprzężenia zwrotnego do schematu badań. W tym przypadku, stanowisko do badań uzupełnione jest o dodatkowy monitor komputerowy. Ekran ten - umieszczony na wysokości wzroku pacjenta - służy do wyświetlania bodźca wzrokowego. Zadaniem pacjenta jest wówczas takie przemieszczanie własnego punktu COP (wyświetlanego również na ekranie), aby nadążał on za poruszającym się bodźcem bez odrywania stóp od płaszczyzny platformy. Koncepcja ta znacząco zwiększa możliwości diagnostyczne. Może być także stosowana w procesie rehabilitacji układu kostno-mięśniowego dolnej partii ciała. Prace w tym drugim zakresie prowadzone są od kilku lat w Instytucie Elektroniki Politechniki Śląskiej [4]. Stan... więcej»

Wieloparametryczna klasyfikacja właściwości użytkowych biopaliw ciekłych – głowica współpracująca z optrodami kapilarnymi (Michał Borecki, Jerzy Kalenik, Paweł Pszczółkowski, Emilia Ciupa, Mariusz Duk, Michael Korwin -Pawłowski, Jarosław Frydrych )
Biopaliwa ciekłe obecnie występują najczęściej w postaci mieszanin przetworzonych i nieprzetworzonych cieczy pochodzenia roślinnego z cieczami otrzymanymi z paliw kopalnych (ropa naftowa). Ze względów ekologicznych obecnie bardzo interesującą grupę stanowią mieszaniny (BDF - Bio-Diesel Fuel) olejów napędowych (DF - Diesel Fuel) z estrami metylowymi (FAME - Fatty Acid Methyl Ester) lub olejem rzepakowym [1]. Należy zauważyć, że oleje napędowe są skomplikowanymi mieszaninami węglowodorów parafinowych, naftenowych, aromatycznych oraz ich pochodnych o liczbie atomów węgla w cząsteczce 11…25. Dla porównania nieprzetworzony olej rzepakowy ma cząsteczki zawierające do 57 atomów węgla a FAME do 23 atomów węgla [2], wobec czego biopaliwa ciekłe mogą charakteryzować się innymi parametrami niż paliwa klasyczne [3] - tab. 1. Skład węglowodorowy DF zależy przede wszystkim od charakterystyki ropy i od zastosowanych procesów rafineryjnych. Głównymi komponentami oleju napędowego są destylaty atmosferyczne z ropy naftowej, a także frakcje uzyskane w katalitycznych procesach rozkładowych. Paliwa handlowe zawierają niewielkie ilości wielopierścieniowych węglowodorów aromatycznych. Komponenty z destylacji pierwotnej zawierają przeważnie układy 2-3- pierścieniowe, zaś z procesów rozkładowych 4-6-pierścieniowe. Oleje napędowe zawierają także liczne dodatki uszlachetniające, które można podzielić na dwie grupy: działające w systemie dystrybucji paliwa, lub działające w układzie paliwowym i silniku. Do pierwszej grupy należą: depresatory, inhibitory korozji, deemulgatory, dodatki przeciwpienne, dodatki przeciwstarzeniowe i biocydy. Do drugiej grupy zalicza się: detergenty, dodatki zwiększające liczbę cetanową, dodatki poprawiające proces spalania, dodatki smarnościowe, barwniki i znaczniki. Obecnie do szybkiej oceny właściwości użytkowych paliw dla silników wysokoprężnych stosowane są sensory lepkości. Niestety, biorąc pod uwagę skomplikowany... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3414-elektronika-konstrukcje-technologie-zastosowania-2012-8.html

 
W numerze m.in.:
Process-oriented suboptimal controller for SiC bulk crystal growth system (Marek Orzyłowski)
The described controlled system is a furnace for silicon carbide (SiC) bulk crystal growth. This modern semiconductor material is used for the production of electronic elements having properties not available earlier: white and blue LEDs, ultra-fast high-voltage Schottky diodes, MOSFET transistors and high-temperature highcurrent thyristors. These elements work at high frequencies and are both radiation resistant, and temperature resistant up to a few hundred °C. Due to good heat conductivity SiC wafers are used as substrate for other semiconductor compounds. Because of technological difficulties, a high quality SiC wafer costs 350…3500 USD while an equivalent ordinary silicon wafer costs about 5 USD. The technological process of the SiC bulk crystal growth bases on the physical vapor transport (PVT) and takes place at temperatures reaching 2500°C in argon atmosphere of low pressure [1]. The known constructions of systems for such purposes usually base on a single-section inductive heater, although preliminary concepts of construction with resistance heating have appeared [2]. In the presented solution the temperature field is formed by a two-section resistance heater of innovative construction worked out together with the described control system. It is worth emphasizing that the high-temperature part of the system can only be made of graphite, which has both electrical and thermal conductivities high. The reactor with the heating system is closed in a vacuum chamber. It is possible to measure the temperature in the reactor from outside by means of the pyrometers using optical channels, whose number and arrangement affect the temperature distribution inside and brings on significant complication of the construction. The intended suboptimal controller should ensure a relatively low deterioration of the control performance index compared to the optimal value. The concept and the solution of a dedicated suboptimal temperat... więcej»

Nowa metoda pomiaru wysokich napięć przy wykorzystaniu materiałów nanokompozytowych (Andrzej Czopik, Sławomir Krawczyk, Katarzyna Olszewska)
Pomiar wysokiego napięcia powyżej 50 kV wykonywany jest zazwyczaj w sposób pośredni przez złożone układy pomiarowe i związany jest często z wydzielaniem dużych mocy, które muszą być odprowadzane. Znanych jest kilka konstrukcji przyrządów i układów wykorzystywanych do pomiarów wysokich napięć stosowanych w zależności od źródła i rodzaju napięcia, warunków zewnętrznych, a także celu pomiaru. Do określania wartości: napięcia stałego, szczytowej napięcia przemiennego, lub szczytowej napięcia udarowego stosowany jest iskiernik. Wykorzystuje on skończoną wytrzymałość elektryczną powietrza i zależność napięcia przeskoku w powietrzu od odległości elektrod, do których to napięcie jest przyłożone. Zazwyczaj stosuje się iskierniki kulowe o znormalizowanych średnicach kul, a wytworzone między nimi pole elektryczne zależy od tych średnic i ich odległości. Na napięcie przeskoku oprócz wielkości pola elektrycznego, wpływają warunki atmosferyczne oraz otaczające przedmioty. Innym przyrządem do pomiaru wysokiego napięcia jest dzielnik napięciowy. Pomiar napięcia za pomocą dzielników polega na zmniejszeniu wartości napięcia doprowadzanego do przyrządu pomiarowego przy możliwie wiernym zachowaniu jego kształtu. W tym celu stosuje się dzielniki rezystancyjne, pojemnościowe lub rezystancyjno-pojemnościowe. Mierzona wartość zależy od stosunku impedancji poszczególnych elementów dzielnika. Przy doborze tych elementów należy również uwzględnić wydzielanie się na nich dużych ilości ciepła w wyniku przepływu prądu. Kolejnym znanym przyr... więcej»

Eksperymentalna walidacja elektromechanicznych modeli ultradźwiękowych przetworników piezoceramicznych (Andrzej Milewski, Paweł Kogut, Witold Kardyś, Piotr Kluk)
Piezoceramika od wielu lat jest materiałem wykorzystywanym do budowy przetworników ultradźwiękowych dużej mocy ze względu na ich bardzo dobre parametry, jak chociażby dużą sprawność i zdolność energetyczną oraz wytrzymałość mechaniczną. Naj- Rys. 1. Piezoceramiczne przetworniki ultradźwiękowe Fig. 1. Piezoceramic ultrasonic transducers częściej stosowana jest ceramika o geometrii walcowej wstępnie spolaryzowana w kierunku osiowym. Przykłady opisanych przetworników piezocermicznych zaprezentowano na rys. 1. Przetworniki ultradźwiękowe projektowane są na zadane parametry, takie jak częstotliwość pracy czy moc wyjściowa. Do projektowania technicznego przetwornika ultradźwiękowego potrzebny jest model matematyczny, który pozwoli na wstępną estymację wymaganych parametrów, w tym parametrów elementów składowych takich jak przetwornik piezoceramiczny. Model przetwornika piezoceramicznego jest również niezbędny do walidacji parametrów piezoceramiki dostarczonej od producenta, co jest szczególnie ważne ze względu na rozrzut technologiczny, który jak podają niektórzy producenci standardowo wynosi ~20%. W niniejszym artykule skupiono się na opisie elektromechanicznego modelu dla przypadku drgań osiowych oraz na metodach estymacji parametrów statycznych przetworników piezoceramicznych w oparciu o pomiary charakterystyk impedancyjnych. 16 Elektronika 8/2012 Model drgań osiowych Przypadek drgań osiowych obejmuje problem, w którym przetwornik w kształcie cienkiego dysku lub krążka zostaje poddany harmonicznemu pobudzeniu elektrycznemu oraz obustronnemu obciążeniu akustycznemu w kierunku osiowym. Problem ten wraz z warunkami wymuszenia oraz zadanymi warunkami brzegowymi ilustruje rys. 2. (3) gdzie k t jest efektywnym współczynnikiem sprzężenia elektromechanicznego drgań osiowych: (4) Estymacja parametrów statycznych przetwornika Technologia wytwarzania przetworników piezoceramicznych charakteryzuje się dużym rozrzutem technologicznym,... więcej»

Szacowanie niepewności w pomiarach z autokorelacją obserwacji (Zygmunt Lech WARSZA)
Stosowanie obecnej wersji zaleceń międzynarodowego przewodnika Guide to the Expression of Uncertainty in Measurement znanego pod akronimem GUM [1, 2] i jego Suplementów natrafia na ograniczenia w wielu rodzajach pomiarów, szczególnie przeprowadzanych przyrządami i systemami o zautomatyzowanym procesie pomiarowym z próbkowaniem sygnału wejściowego i przetwarzaniem a/c. Nie ma jeszcze ustalonych międzynarodowo zasad jak wyznaczać niepewność pomiaru wielkości, sygnałów i procesów zmiennych w czasie, chociaż rozpoczęto już opracowywanie podstaw naukowych do ich tworzenia [19] i istnieją wcześniejsze opracowania obejmujące częściowo tę problematykę [M5], [M6]. Propozycje udoskonalenia zaleceń GUM i rozszerzania zakresu stosowania pojęcia niepewność omawiane są też w szeregu publikacjach oraz dyskutowane na seminariach krajowych i międzynarodowych. Weryfikacją treści GUM i opracowywaniem kolejno wydawanych Suplementów zajmuje się powołany w 1997 r. wspólny komitet siedmiu organizacji międzynarodowych o skrócie JCGM, pod przewodnictwem dyrektora Międzynarodowego Biura Miar i Wag BIPM. Opracowywanie międzynarodowych przepisów metrologicznych jest jednak procesem długotrwałym i wymaga poprzedzającej weryfikacji w praktyce w różnych dziedzinach. Dlatego też przepisy te nie nadążają za bieżącymi potrzebami szybko rozwijającej się techniki pomiarowej. Dalej omówiono możliwość stosunkowo łatwego rozszerzenia zaleceń GUM na pomiary wielkości zmiennych w czasie o obserwacjach uzyskiwanych przy regularnym próbkowaniu sygnału. Przedstawiono metodę przetwarzania danych próbki umożliwiającą poprawne oszacowanie niepewności dla przypadku, gdy obserwacje są ze sobą powiązane statystycznie, czyli autoskorelowane. Podano też sposób wyznaczania estymaty funkcji autokorelacji z tych danych. "Czyszczenie" surowych danych Zmiany zbioru "surowych" wartości obserwacji pomiarowych, czyli próbki wywołany jest przez przyczyny zarówno zdeterminowane, jak ... więcej»

Nowe nanostruktury palladu (Elżbieta Czerwosz, Ewa Kowalska, Mirosław Kozłowski, Piotr Dłużewski)
Pallad odrywa ważną rolę w wielu dziedzinach przemysłu, medycyny, ochrony środowiska i energetyki. W zależności od stanu, w jakim występuje, może być stosowany w postaci ciała stałego (proszek lub warstwa), roztworu, czy w jako nanoobiekty o różnej formie strukturalnej. W ostatnich latach, w szczególności ta ostatnia forma palladu budzi największe zainteresowanie. W niektórych zastosowaniach kontrola kształtu nanoziaren palladu prowadzi do uzyskania materiału, który pozwala na spełnienie wielu bardzo wysublimowanych wymagań. Na przykład można zaprojektować materiał, który będzie zawierał katalizator w postaci tak uformowanej, że konkretne płaszczyzny krystalograficzne będą tworzyły ściany kryształu, a więc będzie można ustalić, ile atomów znajdzie się na powierzchni takiego materiału. Takie zaprojektowanie materiału pozwoli na wzmocnienie jego właściwości odnośnie reaktywności i selektywności wytworzonego nanokatalizatora [1-3]. Inną ważną cechą nanostruktur Pd występujących na powierzchni jest zachodzenie zjawiska powierzchniowego rezonansu plazmonowego, który prowadzi do zastosowań związanych z powierzchniowo wzmocnionym rozproszeniem ramanowskim SERS (Surface-Enhanced Raman Scattering), optyczną detekcją wodoru i fotomedycyną zwalczającą np. nowotwory [4]. Obliczenia teoretyczne wskazują, że pasmo związane z powierzchniowymi plazmonami może się przesuwać od 330 nm (dla nanoziaren o kształcie sześciennym) do 530 nm (dla ziaren o kształcie ikozaedrycznym) w zależności od kształtu i wielkości nanocząstek [5-7]. Pallad jako metal o strukturze typu fcc może przyjmować ogromną ilość postaci geometrycznych [8, 9]. W początkowej fazie wzrostu cząstek palladu z fazy gazowej tworzą się klastry [10]. Krytyczna wielkość tych klastrów nie jest dobrze określona w literaturze, często natomiast mówi się o liczbach magicznych, odpowiadających najczęściej spotykanym w tych klastrach liczbom atomów je tworzących. Ten etap jest etapem nukleac... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3392-elektronika-konstrukcje-technologie-zastosowania-2012-7.html

 
W numerze m.in.:
Obliczenia cieplne urządzeń elektronicznych (Grzegorz Maj)
Do prawidłowej pracy każdego urządzenia elektronicznego niezbędne jest zapewnienie mu odpowiednich warunków cieplnych tak, aby temperatura nie przekraczała maksymalnej wartości dopuszczalnej przez producenta. Ponieważ, wraz ze wzrostem temperatury niezawodność elementów elektronicznych szybko maleje, często pożądane jest zapewnienie korzystniejszych warunków termicznych niż wymaga producent. Trwałość i jakość urządzeń elektronicznych zależy więc od skuteczności odprowadzania ciepła, co jest jednym z zadań osoby konstruującej urządzenie - dobór odpowiedniego chłodzenia. Obecnie konstruktorzy mają do wyboru wiele rozwiązań umożliwiających skuteczne odprowadzania ciepła z układów. Są to chłodzenie cieczowe, ogniwa Peltiera, chłodzenie dwustanowe (rurki cieplne) itp. Jednak z wielu względów nadal najbardziej rozpowszechnioną i najczęściej wykorzystywaną w elektronice metodą chłodzenia, jest metoda odprowadzania ciepła przy wykorzystaniu różnego rodzaju radiatorów, zarówno bez jak i z wymuszonym obiegiem powietrza. Metoda ta jest najtańsza, najprostsza i najbardziej niezawodna, dlatego w dalszej części artykułu zostaną dokładniej omówione metody obliczeń i doboru radiatorów. Ciepło wydziela się na elementach elektronicznych w postaci mocy strat. Radiator musi umożliwiać wypromieniowanie, co najmniej mocy równej tejże mocy strat. W przypadku, gdy istnieje możliwość doboru radiatora kupnego zazwyczaj wystarczy przeprowadzić uproszczone szacunki na podstawie następującego wzoru: (1) gdzie: P [W] - moc wydzielająca się podczas pracy elementu w postaci ciepła; t [K] - temperatura złącza elementu; t 0 [K] - temperatura otoczenia rozpatrywanego elementu; Rthja [K/W] - rezystancja cieplna "połączenia" złącze - otoczenie (junctionambient). Wielkość rezystancji cieplnej Rthja charakteryzuje konkretną obudowę elementu pod względem przewodzenia ciepła. Podawana jest ona zazwyczaj w kartach katalogowych producentów podzespołów elektroniczn... więcej»

Wpływ parametrów sitodruku na geometrię przedniej elektrody metalicznej ogniwa fotowoltaicznego (Kazimierz Drabczyk, Piotr Panek, Paweł Zięba)
Fotoowltaika - także w naszym kraju - zaczyna być postrzegana, jako alternatywne źródło energii odnawialnej [1]. Ogniwa słoneczne są coraz popularniejszym źródłem energii elektrycznej [2, 3]. Do wzrostu popularności ogniw słonecznych przyczynił się między innymi stały spadek cen. Jednym ze sposobów na podniesienie sprawności przy jednoczesnym obniżeniu kosztów produkcji pojedynczego ogniwa fotowoltaicznego jest dalsze dopracowywanie procesu wytwarzania przedniej elektrody metalicznej. Nowoczesna elektroda przednia to taka, która z jednej strony w jak najmniejszym stopniu zakrywa przednią (aktywną) powierzchnię ogniwa, a z drugiej strony pozwala na dalszą redukcję ilości materiału potrzebnego do jej wytworzenia. Zmniejszenie powierzchni elektrody przyczynia się do wzrostu jego sprawności konwersji energii, mniejsza powierzchnia elektrody to mniejsze zacienienie oraz zmniejszenie obszaru pod elektrodą, dla którego rekombinacja jest bardzo wysoka. Nie bez znaczenia jest także aspekt ekonomiczny. Przy produkcji wielkoseryjnej każda oszczędność materiału przekłada się na spadek ceny gotowego ogniwa. Biorąc pod uwagę obecne ceny past metalicznych na bazie srebra, zyski mogą być tym większe im większa jest skala produkcji. Tym samym inżynieria kontaktu przedniego ogniwa jest nadal interesującym problemem badawczym z zakresu technologii ogniw słonecznych. Prace doświadczalne W niniejszej pracy przedstawiono wyniki badań dotyczących wytwarzania przedniej elektrody metalicznej krzemowego ogniwa słonecznego metodą sitodruku. Prace badawcze skoncentrowano na takiej modyfikacji parametrów mechanicznych procesu s... więcej»

Experimental results obtained with FM-based passive radar demonstrator developed at Warsaw University of Technology (MATEUSZ Malanowski, KRZYSZTOF Kulpa, PIOTR Samczyński, JACEK Misiurewicz, JANUSZ Kulpa, PAWEŁ Roszkowski, PAWEŁ Dzwonkowski, DAMIAN Gromek, ŁUKASZ Maślikowski, MAREK Misiurewicz)
Passive bistatic radar (PBR) technology is becoming more mature, as experimental systems evolve into commercially available products [1], [2]. A natural tendency is to compare the results of a PBR, which is relatively new product on the market, with existing sensors, such as primary surveillance radar (PSR) or secondary surveillance radar (SSR). In the paper the results obtained with the PaRaDe (Passive Radar Demonstrator) demonstrator, developed at Warsaw University of Technology, are presented. The results were obtained during military exercise carried out in Poland, in September 2011. During the trials, military targets taking part in the exercise, as well as ordinary civilian traffic have been observed. The results obtained with the PaRaDe are compared with data provided by a Mode-S receiver (SSR) and a military active radar (PSR) [3]. In the paper the hardware and software parts of the PaRaDe system are presented, followed by the description of the results obtained during the trials. System Description Hardware The PaRaDe demonstrator is a passive radar using FM radio transmitters, operating in 88…108 MHz frequency band, as illuminators of opportunity [7], [8], [15], [16]. The antenna system of the radar is an 8-element antenna array arranged in a Uniform Circular Array. The array is mounted on a 12 m-high deployable mast. The signals from the individual array elements are amplified by low noise amplifiers (LNA) and filtered by band-pass filters (BPF) mounted on the top of the mast. After the filtering, the signals from all 8 channels are sampled coherently. The sampling is performed directly at radio frequency, i.e. no analog down-conversion is used. For the sampling, 4 versatile digitizers, with 2 inputs each, are used [9]. After sampling, the signals a... więcej»

Rozwój badań i innowacji w Polsce (Marek Hołyński )
Struktura prac badawczych i rozwojowych, odziedziczona po systemie socjalistycznym, charakteryzowała się znacznym stopniem rozdrobnienia, zarówno organizacyjnym, jak i tematycznym. Prace badawcze, głównie poznawcze, prowadzone były zarówno przez przemysłowe ośrodki badawczo-rozwojowe, jak i instytuty Polskiej Akademii Nauk, a także uczelnie wyższe. Były one finansowane głównie z budżetu państwa w formie dotacji. Udział firm prywatnych był znikomy. Zbyt mało uwagi zwracano przy tym na praktyczne rezultaty badań. Nowe wyzwania globalizacji, członkostwo Polski w Unii Europejskiej i zmiany w hierarchii celów związane z funkcjonowaniem nauki w nowych warunkach, doprowadziły do wielu zmian w tym systemie. Odpowiedzialność za zarządzanie projektami została przeniesiona do dwóch nowo utworzonych instytucji - Narodowego Centrum Nauki i Narodowego Centrum Badań i Rozwoju. Narodowe Centrum Nauki (NCN) okresowo ogłasza konkursy i zaprasza do składania wniosków dotyczących badaniach podstawowych. Oferuje dotacje do projektów badawczych, w tym finansowania zakupu lub wytworzenia aparatury badawczej, koniecznej do tych badań. NCN oferuje także finansowanie prac badawczych młodych pracowników nauki, którzy jeszcze nie uzyskali stopnia doktora nauk lub tych, którzy uzyskali go niedawno. Głównym zadaniem Narodowego Centrum Badań i Rozwoju (NCBiR) jest zarządzanie i wdrażanie strategicznych programów prac ba... więcej»

Extracted window offsetting using maximally flat fractional delay filter (MAREK BLOK)
In digital signal processing the delay operator is one of the basic building blocks. Such an element can be readily implemented since it simply stores samples for few processing cycles so they can be used in farther processing without any quality loss. Nonetheless, its capabilities to delay digital signal are limited to the integer multiple of the sampling period. This is the problem because many applications need to delay signal for a fraction of the sampling period. This can be achieved with digital filter but the task is not simple and signal quality must be compromised to some extent. Therefore to obtain the best possible results optimal filters should be used. High performance of the optimal FD filter is, however, paid for with complex design procedure which excludes direct utilization of optimal methods in applications where variable fractional delay (VFD) filter is required, such as synchronization in digital modems [1-3], modeling of instruments [4, 5] and sample rate conversion [6, 7]. In this paper we will consider the last of aforementioned applications, since it requires an FD filter with different fractional delay for each output sample and the required fractional delay changes in the whole range from 0 to 1. With the Farrow structure [8, 9] or the extracted window method [10-13] optimal FD filters might be implemented offering the best performance with the lowest filter order. The use of the adjustable fractional delay allows for change between any two arbitrary selected sampling rates. However, with optimal FD filters the resampled signal must be bandlimited which means that additional lowpass prefilter is required [14]. In this paper we demonstrate that the prefilter is not needed if instead of optimal FD filters we use the offset window method [15]. This FD filter design method is quite simple, though the proper window selection and its offsetting is problematic. We propose to use the window extracted from opt... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3350-elektronika-konstrukcje-technologie-zastosowania-2012-6.html

 
W numerze m.in.:
Photovoltaic bulk heterojunctions with interpenetrating network based on semiconducting polymers (Michał Modzelewski, Ewa Klugmann -Radziemska)
Bulk heterojunctions with interpenetrating network architecture (BHS) is nowadays the most prospective one exploited for organic electronic devices manufacturing as it enables fabricating large and flexible areas of light-emitting diodes, transistors and solar cells. Bulk heterojunction with internal network of percolation paths is intermixed spatial blend of two physically stable phases (Fig. 1). One of the phases is composed of electron-donor compound which is characterized by low ionization potential and second with high electron affinity acts as an electron-acceptor. Exceptional position of BHS amongst all architectures of organic PV devices can be explained primarily by possibility of low-cost deposition of soluble organic photoactive compounds by means of novel techniques such as spin-coating, screen printing or doctor blading on the one side and by achieving internal network within an exciton diffusion length on the other side. Until that day the most effective bulk heterojunction based on semiconducting (conjugated) polymers is structure of Poly(3-hexyltiophene) (P3HT) acting as electron donor an Phenyl-C60-butyric acid methyl ester as electron acceptor [1] (Fig. 2). There are different BHJ technologies referred to type of applied materials. The common part for all of them is solubility of constituent compounds. As far as BHJs are charge transfer systems one may divide them into polymer/fullerene derivatives, polymer/polymer, low-band gap polymers/fullerene derivatives, polymer/inorganic compound and polymer/oxide. All mentioned may be doped or not. To find our own place amongst organic photovoltaic we decided to apply low-band gap polymer for organic solar cell. The main goal of following paper was to construct an organic photovoltaic cell in BHJ ... więcej»

Detekcja neutronów i detekcja radonu przy wykorzystaniu krzemowych detektorów naładowanych cząstek – nowa koncepcja osobistej dozymetrii (Maciej WĘGRZECKI, Jan BAR, Tadeusz BUDZYŃSKI, Michał CIEŻ, Piotr GRABIEC, Helena KŁOS, Jan KULAWIK, Dariusz LIPIŃSKI, Andrze j PANAS, Werner RÜHM, SARNECKI, Wojciech SŁYSZ, Iwona WĘGRZECKA, Marek WIELUNSKI, Krzysztof WITEK, Michał ZABOROWSKI)
W Institut für Strahlenschutz, Helmholtz Zentrum München (HZM) opracowywane są przyrządy nowej generacji do monitorowania zagrożeń radiacyjnych, wykorzystujące detektory krzemowe. Są one jednymi z pierwszych na świecie miniaturowych, zasilanych bateryjnie przyrządów tego typu - o wymiarach porównywalnych z dozymetrami kliszowymi. Czas ich nieprzerwanej pracy bez wymiany baterii przekracza 6 miesięcy. Pomiar odbywa się w sposób ciągły (w czasie rzeczywistym), co umożliwia natychmiastowe sygnalizowanie zagrożeń. Wyniki pomiarów są gromadzone w pamięci, dzięki czemu możliwe jest kontrolowanie historii występowania zagrożeń. W Instytucie Technologii Elektronowej (ITE) opracowywane są we współpracy z HZM i wytwarzane detektory krzemowe do opracowywanych w HZM przyrządów. Detektory te, dla spełnienia wymagań stawianych przez przyrządy nowej generacji muszą charakteryzować się ekstremalnie dobrymi parametrami (bardzo mały prąd ciemny, bardzo małe szumy, duża czułość, duża powierzchnia aktywna, małe napięcie pracy). W niniejszej pracy opisano opracowane w ITE sensory neutronów dla dozymetru neutronów do monitorowania składowisk zużytego paliwa nuklear... więcej»

Krzemowe, 16-elementowe matryce fotodiodowe specjalizowane do monitorowania optycznego czujników mikrodźwigniowych (Maciej Węgrzecki, Jan Bar, Tadeusz Budzyński, Teodor Gosztalk, Piotr Grabiec, Dariusz Lipiński, Konrad Nieradka, Andrzej Panas, Jerzy Sarnecki, Wojciech Słysz, Iwona Węgrzecka, Michał Zaborowski)
W czujnikach mikrodźwigniowych, zmiany stanu fizyko-chemicznego rejestrowane są poprzez rejestrację przemieszczenia (ugięcia) mikrodźwigni. Jedną z najczulszych metod pomiaru tego przemieszczenia jest metoda odbicia wiązki optycznej (Optical Beam Deflection - OBD). W metodzie tej, odchylenie wiązki świetlnej odbitej od mikrodźwigni, padającej na matrycę fotodiodową o odpowiedniej konfiguracji elementów światłoczułych, wykrywane jest przez pomiar zmiany rozkładu mocy optycznej na ... więcej»

Badanie wpływu alkoholi na odpowiedź funkcjonalizowanych czujników impedancyjnych (Konrad CHABOWSKI, Piotr PAŁETKO, Karol NITSCH, Tomasz PIASECKI, Piotr GRABIEC, Paweł JANUS, Teodor GOTSZALK)
Obecnie obserwuje się wzrost zainteresowania zastosowaniem monowarstw samoorganizujących (Self Assembled Monolayer - SAM) do funkcjonalizacji powierzchni bioczujników [1]. W badaniach właściwości elektrycznych warstw samoorganizujących na powierzchni SiO2 czujnika wykorzystuje się min. metodę spektroskopii impedancyjnej [3, 8]. Wiadomym jest, że konduktywność i przenikalność elektryczna cieczy wpływa na odpowiedź planarnego czujnika impedancyjnego. Celem niniejszej pracy było zbadanie, czy jest możliwa identyfikacja zjawisk zachodzących na powierzchni międzyelektrodowej czujnika w zależności od jej właściwości fizykochemicznych zmienianych za pomocą funkcjonalizacji w środowiskach modelowych cieczy. Powierzchnia międzyelektrodowa może adsorbować molekuły cieczy, w której znajduje się czujnik, tworząc dodatkową warstwę przewodnictwa powierzchniowego lub sama wykazywać przewodnictwo. Kształtuje w ten sposób dodatkowy kanał przepływu ładunku elektrycznego w zdominowanym przez przewodnictwo objętościowe środowisku. Pomiary właściwości zmiennoprądowych czujników przeprowadzono w wybranych cieczach z szeregu homologicznego pierwszorzędowych alkoholi zawierające odpowiednio 1, 2, 3, 4, 6 i 8 atomów węgla w łańcuchu alkilowym. Miniaturowe czujniki impedancyjne Na rysunku 1 przedstawiono miniaturowy czujnik impedancyjny ze złotymi elektrodami o strukturze palczastej wykonane na krzemie. Dla zapewnienia separacji galwanicznej elektrody oddzielono od podłoża warstwą dwutlenku krzemu. Odległość między elektrodami i szerokości palców elektrod wynosiły 20 μm zaś cały czujnik miał wymiary 0,6×1 mm2. Sensor zaprojektowano tak, aby można było umieszczać go we wtyczce micro USB B, co wyeliminowało kon... więcej»

Experimental Validation of New Classes of Dyes for Dye-Sensitised Solar Cells (Michal G. Zubel, Jacqueline M. Cole, Paul G. Waddell)
Solar power is numbered, along with wind, water (waves, tides, dams, run-on-the-river systems), biomass growth (traditional and advanced) and geothermal heat among renewable energy sources. Although the accuracy of any long-term forecast can be considered questionable, especially in the times when the spectacular failure of the predictions of the Club of Rome, expressed in their 1972 book “Limits to Growth", has become evident, it is recognised that the photovoltaic energy harvesting seems to be the only branch able to provide cheap and clean energy in the future [1]. This is because the other above-mentioned “green" technologies have not enough growth potential and area of availability to be regarded major sources of cheap energy for the future. Energy production from renewable sources encompass still emerging technologies. They constitute only 6% of the global final energy consumption (2009), excluding traditional biomass [2]. Their share of the global electricity consumption (2010) is higher but it is still smaller than 20%, whereas about 16% is attributed to hydroelectricity [2], the most established renewable energy source. All the other sources contribute around 3.3% of the global share. Obviously, fossil fuels dominate both rankings. The main parameter to characterise energy sources is the average cost of production per kilowatt‑hour or megawatt-hour. Looking at the comparison of the cost [2] it is no wonder that photovoltaics are not in widespread use. The cost of electric energy from this source is 5-10 times higher than from the cheapest renewable one, i.e. hydroelectricity. It is also estimated to be around 3 times more expensive than electric energy from coal [3]. Various reports give different figures on the average costs of energy, but in each of them the tendency for photovoltaic energy to be much more expensive is clear. Solar cells will not be competitive with other energy sources as long as... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3305-elektronika-konstrukcje-technologie-zastosowania-2012-5.html

 
W numerze m.in.:
Wheezes recognition method with tonal index descriptor (Marcin Wiśniewski, Tomasz Zieliński )
The lungs auscultation is a non invasive test in pulmonary diseases like asthma or COPD (Chronic Obstructive Pulmonary Disease). Such test is a main source of information about the patient’s condition. During auscultation, medical doctors can evaluate the appearance of wheezes in the breath cycle. Unfortunately, such test is strongly subjective and the diagnose strongly depends on the doctor’s experience or even his hearing abilities. The advantage of digital recognition of lungs auscultation is that every appearance of wheezes in breath cycle is described as a number. The result of such test is an objective value and can be unambiguously interpreted. The test can be performed by an inexperienced person or even by the patient himself. These advantages allow to use this technology in telemedicine. Medical doctor can see the results of every test without necessity of direct meeting. Such solutions causes that the patient do not have to go to the hospital as often as in traditional asthma monitoring. It increases the comfort of patient’s life and decreases stress of direct meetings with medical doctors. In this paper the Tonal Index (TI) [1] used in MPEG-audio codec is used as a feature to wheezes recognition. The TI is compared with the other features taken from literature: Kurtosis (K), Frequency Ratio (FR) [2], Spectral Peaks Entropy [3] (SPE) and Spectral Flatness [4] (SF). The modified Frequency Ratio called Energy Ratio (ER) is compared as well. The results of multi dimensional recognition using sets of a few features is presented also. For recognition the SVM (Support Vector Machine) classifier was used and it was applied on artificial and real data, recorded by us and obtained from the Internet [5-7]. The research reported in this paper is a continuation of study described in article “Application of Tonal Index to Pulmonary Wheezes Detection in Asthma Monitoring", presented at the EUSIPCO 2011 co... więcej»

Metodyki pomiarów parametrów materiałów absorpcyjnych (Rafał Przesmycki, Leszek Nowosielski, Marian Wnuk, Marek Bugaj, Kazimierz Piwowarczyk)
Wraz ze wzrastającą ilością urządzeń wytwarzających promieniowanie elektromagnetyczne zachodzi potrzeba ochrony urządzeń i ludzi przed niepożądanym promieniowaniem elektromagnetycznym. Problem zabezpieczania przed niepożądanym promieniowaniem jest szczególnie istotny w zagadnieniach kompatybilności elektromagnetycznej. Jednym ze sposobów zabezpieczania przed oddziaływaniem niepożądanego promieniowania są ekrany elektromagnetyczne. Generalnie można wyróżnić dwa sposoby funkcjonowania ekranów elektromagnetycznych - poprzez odbicie padającej fali elektromagnetycznej bądź poprzez absorpcję energii elektromagnetycznej. Biorąc pod uwagę skuteczność ekranowania idealny ekran elektromagnetyczny powinien charakteryzować się niskim współczynnikiem odbicia oraz wysoką wartością absorpcji padającego promieniowania. Współczynniki odbicia oraz absorpcji (transmisji) zależą od właściwości elektrycznych i magnetycznych materiału i zmieniają się w funkcji częstotliwości. W celu osiągnięcia pożądanych parametrów odbicia i transmisji często stosuje się kompozyty złożone z materiałów o różnych właściwościach. Jednakże w takim przypadku wartości współczynników odbicia i transmisji mogą zależeć również od polaryzacji i kąta padającego promieniowania. Obecnie stosowane są odmienne sposoby ekranowania w zakresie mikrofalowym i odmienne w zakresie niskich częstotliwości. Do ekranowania elektromagnetycznego w zakresie mikrofalowym stosuje się materiały grafitowe, które dodatkowo kształtowane są w postaci piramidalnych ostrosłupów. Z kolei, duże skuteczności ekranowania w zakresie niskich częstotliwości uzyskuje się stosując materiały ferrytowe posiadające dodatkowe właściwości magnetyczne. W większości przypadków ściany komór bezodbiciowych wyłożone są dwoma warstwami, z których jedna warstwa zbudowana jest z płytek ferrytowych, a druga z ostrosłupów grafitowych. Takie sposoby ekranowania są jednak dogodne jedynie do stosowania w komorach bezodbiciowy... więcej»

LABGSM - system ewaluacyjny modułu GSM/GPRS (Piotr Bratek, Andrzej Kos)
Telefonia bezprzewodowa w ciągu bardzo krótkiego czasu odmieniła oblicze świata. W ciągu niespełna dwóch dekad sieć GSM/GPRS zyskała na świecie miliardy abonentów i liczba ich wciąż wzrasta. Telefony i usługi stają się dostępne dla ogółu społeczeństw w wielu krajach. Wraz z upowszechnieniem się telefonii komórkowej coraz intensywniej rozwija się i wykorzystywane są dodatkowe funkcje jakie może realizować technologia GSM/ GPRS. Łączność komórkowa jest obecnie podstawą wielu kluczowych systemów dla gospodarki. Począwszy od kontroli, dozoru, archiwizacji danych na zewnętrznych serwerach po sterowanie maszynami i procesami. Łączność GSM/GPRS wydaje się być niezastąpioną w aplikacjach gdzie urządzenia operują globalnie (np. archiwizacja danych o położeniu i parametrach jazdy pojazdu). Rozwój zarówno sieci telefonii bezprzewodowej, gwałtowny spadek cen usług i postęp w dziedzinie elektroniki sprawiają, że układy wykorzystujące GSM/GPRS stały się bardzo popularne również wśród elektroników-entuzjastów. Przedstawiany system ewaluacyjny LABGSM pozwala na przetestowanie i zapoznanie się z funkcjonalnością modułu przemysłowego GSM/GPRS w sposób nie wymagający ciągłego nadzoru eksperta. Zastosowane procedury czuwają nad prawidłowością wykonywanych procesów, a wyniki etapów prac są zapisywane w bazie danych. Prezentowany system dydaktyczny umożliwia przedstawienie podstawowych możliwości modułu GSM, transmisji GPRS i wykorzystanie innych protokołów transmisji udostępnianych przez zastosowany moduł przemysłowy.Moduł GSM/GPRS HiLo Głównym elementem platformy sprzętowej systemu LABGSM jest moduł GSM/GPRS HiLo firmy Sagem Communication (rys. 1). Główne części użytego w LABGSM modułu przedstawia rys. 2 [1]. Interfejs modułu do komunikacji ze środowiskiem zewnętrznym stanowi 40-pinowe złącze na którym dostępne są wszystkie wyjścia oprócz gniazda anteny i styków interfejsu JTAG. K... więcej»

Bezprzewodowa sieć czujnikowa do monitoringu parametrów środowiskowych w aplikacjach ogrodniczych (Andrzej DOBRZYCKI, Grzegorz TARAPATA, Ryszard JACHOWICZ)
Od czasów wynalezienia tranzystora w 1947 roku, elektronika jest jednym z najszybciej rozwijających się obszarów nauki. Tak dynamiczny rozwój elektroniki sprawia, że wkracza ona w każdą dziedzinę naszego życia. Coraz szersze zastosowanie znajduje również w rolnictwie, które jest jedną z największych i najważniejszych gałęzi produkcji. Oczywiste jest, że o ile człowiek przeżyje bez telewizora, czy też samochodu, o tyle nie poradzi sobie bez jedzenia. Tymczasem wraz z rozwojem gospodarek w krajach rozwiniętych, coraz mniejsza część ludności zajmuje się rolnictwem, przez co wydajności produkcji rolnej musi być większa. Ponadto w wielu miejscach na Świecie wciąż panuje głód. Z tego względu prowadzone są usilne działania mające na celu zwiększenie wydajności produkcji rolnej. Cel ten można osiągnąć np. przez ochronę upraw przed zniszczeniem. Przykładem takich działań może być stosowanie oprysków ochronnych przed chorobami, czy też zabezpieczanie przed przymrozkami przy pomocy specjalnych instalacji [1, 5]. Można również racjonalnie wykorzystywać ograniczone zasoby np. wodę do nawadniania [9, 10]. Jest to szczególnie istotne na terenach cierpiących na jej niedostatek. Kolejnym przykładem dążenia do zwiększenia produkcji rolnej jest prowadzenie upraw eksperymentalnych i badanie czynników wpływających na ilość oraz jakość plonów. Powyżej wymienione zostały tylko najważniejsze z potencjalnych możliwości. Należy jednak podkreślić, że dzięki tym zabiegom poza zwiększeniem produkcji można zmniejszyć koszty wytwarzania (np. mniejsze koszty nawadniania, mniejsze użycie środków chemicznych i nawozów) oraz uzyskać żywność lepszej jakości (np. mniej oprysków chemicznych, plony nieuszkodzone przez choroby). Wszystkie te metody wymagają jednak prowadzenia stałego monitoringu parametrów środowiskowych. Obecnie dostępne są nowoczesne stacje pomiarowe wykorzystujące modemy GSM/GPRS do bezprzewodowej transmisji danych pomiarowych (poprzez sieć ko... więcej»

Using auditory properties in multi-microphone speech enhancement (Adam Borowicz, Alexandr Petrovsky)
An objective of the speech enhancement is to reduce environmental noise while preserving speech intelligibility. In a context of the multi-microphone systems the dereverberation and interference suppression are also expected. Therefore, over the past decades most efforts have been devoted to the beamforming techniques. The key idea of the beamforming is to process the microphone array signals to listen the sounds coming from only one direction. Particularly the noise reduction can be implicitly achieved by avoiding ’noisy’ directions. A linearly constrained minimum variance (LCMV) algorithm has been originally proposed by Frost [1] in the 1970 s and it is probably the most studied beamforming method since then. It minimizes a beamformer output variance subject to the set of linear equations that ensure a constant gain in a specified listening direction. A minimum variance distortionless (MVDR) method [2] can be considered as a special case of the LCVM approach. Similarly, it minimizes a beamformer output variance, but subject to a less restrictive constraint. Another popular technique is a generalized sidelobe canceler (GSC) [3, 4]. It converts the constrained optimization problem defined in the LCVM method into a more efficient, unconstrained form. In addition a processing can be split into two independent stages - the dereverberation and noise suppression, respectively. In order to work reasonably well in the reverberant environments, the classical beamforming techniques often require a system model identification i.e. knowledge of the acoustic room impulse responses or its relative ratios. These parameters can be fixed or estimated adaptively, however in general it is a difficult task. In addition the beamforming methods are usually very sensitive to the system model uncertainties. Recently, much efforts have been made to reformulate the multichannel speech enhancement problem so that the noise reduction can be ... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3286-elektronika-konstrukcje-technologie-zastosowania-2012-4.html

 
W numerze m.in.:
HTML5 versus Flash - możliwości tworzenia interaktywnych multimediów dla m-learningu (Jolanta Brzostek-Pawłowska)
Poziom rozwoju standardu HTML5 [4] oraz technologii tworzących środowisko rozwoju i udostępniania aplikacji i treści w tym standardzie jest na tyle zaawansowany, że warto bliżej rozpoznać tę technologię i zacząć stosować w nowych projektach. Większość przeglądarek WWW, tzw. Internetu stacjonarnego (komputery stacjonarne, laptopy) w znacznym stopniu wspiera już HTML5, słabiej radzą sobie z pełnym wykorzystaniem HTML5 przeglądarki mobilne ze względu na ograniczenia sprzętu mobilnego. HTML5 uznawany jest jako idealny dla urządzeń mobilnych, ponieważ może zapewniać dostępność ze wszystkich platform mobilnych. A brak tej dostępności jest zmorą wszystkich deweloperów tworzących rozwiązania na sprzęt mobilny. Konieczność tworzenia kolejnych wersji produktu dla różnych środowisk mobilnych jest czynnikiem pogarszającym wskaźniki efektywności produkcji. HTML5 wykonuje samodzielnie funkcje, dotychczas wspomagane różnymi wtyczkami do przeglądarek ("playery", "viewery"). Dokładniej mówiąc - samodzielnie wraz z przyjaciółmi, jakimi są kaskadowe arkusze stylów CSS level 3 (CSS 3) i Javascript (JS). W HTML5 nie istnieje problem konieczności instalowania wtyczek lub ich niedostępności, czego przykładem może być technologia Flash, niedopuszczona przez Steve Jobsa (Thoughts on Flash, [2]) na urządzenia iPhone i iPad firmy Apple, jako nie otwarty standard. Apple, Google, nawet Microsoft ze swoją technologią Silverlight (konkurencyjną do Flash), idą wyraźnie w kierunku HTML5, CSS3 i JavaScript. Apple i Google stworzyły nawet strony dedykowane promocji HTML5 http://www. apple.com/html5/i http://www.html5rocks.com/. Na tej ostatniej stronie o nazwie "HTML5 Rocks" Google prezentuje rozwiązania, które mogą być wykonane przy pomocy HTML5 (oraz CSS3 i JS) takie, jak: interaktywne prezentacje, przewodniki, "sandboxy" (generowanie gradientów i innych wizualnych obiektów i efektów) i inne nowości HTML5. Wydaje się, że HTML5 może stać się alternatywą dla ... więcej»

The electrical activity of brain in upright posture provoked syncope (Kazimierz Pęczalski, Tadeusz Pałko, Dariusz Wojciechowski, Wojciech Jernajczyk, Zbigniew Dunajski)
The knowledge of symptoms and signs of patients with transient loss of consciousness (TLOC) is crucial for reliable clinical diagnosis of patients with syncope. The syncope is defined as a TLOC caused by cerebral hypoperfusion [1]. The three main types of syncope are distinguished: cardiac syncope, neurally mediated syncope and syncope due to autonomic failure (orthostatic hypotension). The cardiac syncope can be evaluated by invasive electrophysiological study. The head up tilt test (HUT) with beat to beat measurements of heart rate and blood pressure of patients provides the sufficient diagnose of neurally mediated syncope and syncope caused by autonomic failure. For diagnose the standard classification, consists of four types of vasovagal reaction (including cardiodepressive reaction i.e. heart rate decrease and vasodepressive reaction i.e. arterial pressure decrease): I. mixed, IIa. cardiodepressive, IIb. cardiodepressive, III. vasodepressive, is applied.The neurally mediated and cause by autonomic failure syncopes develop hypotension thus cerebral hypoperfusion. Therefore in presented study we extended the common use set of measurements to electrical activity of brain examination [2]. The statistically significant differences of blood flow and hemoglobin concentration in brain vessels during syncope induced by HUT observed in patients with induced lack of consciousness vs. patients with negative test results were reported in our further study [3]. The blood flow of brain was assessed by ultrasonic, transcranial doppler (TD) and hemoglobin concentration changes (oxygenated and deoxygenated fractions) by near infrared spectroscopy (NIRS). The similar results were reported by other researches. Our study [4, 5] of electrical activity of brain in course of HUT proved appearance of pathology of EEG within tyes (30-60) seconds prior to syncope attack. In our studies we didn’t determinate of the exact interval between obser... więcej»

Investigation of leaded assembly process of lead-free BGA and CSP structures (Janusz Borecki)
The basic element of every electronic device is a Printed Circuit Board (PCB) on which the electronic components are mounted. Assembly of components is usually made by soldering in Surface Mount Technology (SMT). The created in this process solder joints have to fulfill two main tasks, namely: the connection of component leads to connections network, as well as the mechanical connection of component to the surface of PCB. The quality of solder joints depends on many factors, which include: parameters of assembly process, type of solder paste, surface finishing of PCB’s solder pads (e.g. Ni/Au, immersion Sn, HAL, etc.) [1]. The constant market demands for miniaturization of consumer electronic devices such as digital cameras, mobile phones, portable media players, etc., forces to use more and more functional, as well as more and more integrated multi-lead semiconductor structures (e.g. BGA, CSP, Flip-chip) [2]. These electronic devices are often operated in extremely variable environmental conditions, and the reliability of them strongly depends on quality of solder joints. It is known that the solder joints made with use leaded (Pb) technology are more reliable and more resistive for mechanical exposure in comparison to Pb-free solder joints [1]. From this reason, many sectors of electronic industry such as automotive, energetic, medical, military and aerospace are excluded from regulations of RoHS Directive [1, 3]. On the other hand, the producers of electronic components, to reduce of production costs, manufactures their products in one version only, usually in Pb-free technology. In this fact it is necessary to assembly of electronic components in mixed technique (Pb-free components assembled by leaded solder paste). Investigations At the moment of necessity of assembly in mixed technique becomes a complex issue of good quality of solder joints making. It is especially important in case of assembly of components wit... więcej»

New generation Network - PROFUSION (Krzysztof Bogusławski)
A programmable fusion network, merging the advantages of guaranteed circuit services and bandwidth efficient packet transfer into a hybrid, highly customizable network infrastructure, based on state-of-the-art Ethernet technology, is considered in this project as a feasible way to deploy flexible solutions for next-generation networks, even in multi-provider contexts. The key element enabling this concept is the modular programmable router architecture, which adopts emerging standards to support dynamic management and customized configuration of network resources and services. The issues addressed by the project PROFUSION include: ● how to enable, implement and manage effective circuit/packet integration according to emerging networking/application scenarios with experimental high-performance service demonstration; ● how to overcome existing limitations in network management and deploy a flexible and dynamic network service configuration framework based on emerging standards; ● how to exploit programmability in view of sustainable and power efficient network design by smartly sharing network resources through circuit and packet services. As for the expected outcomes, the project will design and prototype backward compatible, cost-effective, future-proof, programmable network interfaces to facilitate the development of future dynamic Internet services. PROFUSION motivations and addressed problems Advanced transmission technologies offer large capacity in both core and access telecommunication networks, especially when optical fibres are deployed as physical medium. This capacity can be fruitfully exploited to meet the requirements of new network service markets that strongly promote emerging bandwidth-demanding applications, such as large data transfers, cloud computing applications, immersive videoconferencing, high definition TV, and cinema services. At the same time, new pervasive applications as well a... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju - Część 3 (Edward Sędek)
Opracowanie radarów wielofunkcyjnych z aktywnymi antenami ścianowymi stało się możliwe dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC). Wyniki prac aplikacyjnych zostały opublikowane na początku lat 90. Za fundamentalną publikację w tym zakresie można uznać materiały z konferencji MONOLITHIC CIRCUITS SYMPOSIUM 1995, gdzie opublikowano praktycznie większość wyników prac aplikacyjnych wykonanych w najpoważniejszych ośrodkach naukowych i badawczo-rozwojowych [1]. Potem nastąpił dalszy dynamiczny rozwój tej dziedziny wiedzy, co zostało udokumentowane w pracach [2-8]. Oczywiście przytoczone publikacje są wybrane jako reprezentatywne, a ich dzisiejsza liczba jest większa o kilka rzędów wielkości. Jak wspomniano w poprzednich artykułach [9, 10], postęp w zakresie nowych materiałów, zwłaszcza półprzewodnikowych [11] i ferroelektrycznych [12], umożliwił opracowanie anten aktywnych zarówno w technologii hybrydowej, jak i monolitycznej, co w przeszłości było praktycznie niemożliwe pomimo istniejących wówczas koncepcji rozwiązań tego typu urządzeń. Przedstawione pozycje literatury [11] i [12] są jedynie przykładowe, gdyż co roku w czasie trwania konferencji IMS w USA są prezentowane nowe osiągnięcia w tym zakresie. Poprzednio próbowano wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i znaczne gabaryty odstraszały przyszłych użytkowników wojskowych. Ponadto rozmieszczenie dużej i ciężkiej aparatury w samolotach bojowych było praktycznie niemożliwe. Możliwości takie dotyczyły jedynie systemów wczesnego wykrywania typu E-3 AWACS, gdzie antena radaru AN/APY-2 umieszczona jest nad kadłubem [13, 14], zaś aparatura radaru w kadłubie samolotu typu Boeing 707-320, jak również ostatnio w samolocie Boeing 767, czy w Europie na samolocie szwedzkim Saab 340, lub Saab 2000 [15]. Ta grupa radarów z antenami o rozpiętości nawet do 9 m (szwedzki sys... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3256-elektronika-konstrukcje-technologie-zastosowania-2012-3.html

 
W numerze m.in.:
Complex tracking circuit design (Janusz Pochmara, Jakub Pałasiewicz, Piotr Szablata)
The wireless market continues to evolve at an ever growing pace. Increased consumer demand for smart phones, together with the widespread adoption of new form factor devices such as tablet PCs, is providing a dynamic landscape. Application stores, together with new, feature-rich mobile devices and enhanced network capabilities, are delivering new business models and compelling user experiences for consumers [1]. Wireless navigation is also a good example of intuitive product development. Turn it on and it tells you where you are. Put in the destination and it tells you how to get there. In our opinion presented project, called CTCD, is probably most complete and affordable GPS unit available today. Our proposition combines GPS monitoring with GPRS transmission to tracking application. This tracker provides tracking, reporting and monitoring, capable of updates every friction of seconds. Our unit works worldwide with both GPRS/SMS standards. In this paper we present the most compatible working modes to present vast possibilities of this project. Hardware specification Popular solution for this kind of device is to combine GSM or GPRS module with GPS chip and Intel 8051 compatible microcontroller [2]. There are also modules providing both of these technologies - GPS/GPRS+GPS. One of the biggest problems with those solutions are: poor support from developers side, too simple software applications and slow working databases. Those features should enable using this device by many users and giving them feedback information online. Main advantage of this kind of construction is that only a few implementations of on-market GSM modules are using it to its full potential. Another challenge is to construct device small, energy-saving and stand-alone, which can work very long on one fully-loaded battery cell. Therefore, when hardware device is used only as standalone sender, some functions, like headphones or LCD display, are disabled. ... więcej»

Tendencje rozwoju oraz prace B+R w zakresie radiolokacji naziemnej w Bumar Elektronika (Tadeusz Brenner, Jacek Gwardecki)
Polski przemysł radiolokacyjny na dzień dzisiejszy stoi przed wyzwaniem dokonania przełomu technicznego w budowie nowej generacji radarów naziemnych o przeznaczeniu militarnym, w których się specjalizuje od lat 50. Wyzwanie takie związane jest z ciągle dynamicznie zmieniającym się rozwojem technik i technologii radiolokacyjnych, na które w świecie przeznaczane są duże nakłady finansowe. Powszechnie wiadomo, że rozwój danej dziedziny zależy głównie od poziomu technologii, w jakiej można realizować różnorakie idee jej dotyczące. Większość idei dotyczących radiolokacji powstało u jej zarania, tzn. w latach krótko po drugiej wojnie światowej. Na przełomie ostatnich 60. lat idee te były wdrażane i rozwijane w miarę rozwoju technologii. Oczywiście pewne idee działania radaru powstawały także w trakcie rozwoju technologii. Najistotniejszą ideą, która jest wcielana w życie od około czterdziestu lat, jest takie właściwe sterowanie cechami sygnału nadawanego i odbieranego, aby uzyskać jak największą ilość informacji o obiektach użytecznych spośród wszystkich sygnałów odbitych przychodzących do anteny radaru. Takie podejście wymusiło konieczność panowania nad amplitudą i fazą sygnałów nadawanego i odbieranego na powierzchni apertury anteny, a w efekcie zapewnienia możliwości sterowania amplitudą i fazą tych sygnałów. Stąd budowa anteny ewoluowała w kierunku anteny planarnej i dyskretyzowanej w sensie jej elementów promieniująco- odbiorczych. Opanowanie tej umiejętności doprowadziło do powstania anten z elektronicznie sterowanymi wiązkami, a następnie do stosowania nadajnika półprzewodnikowego rozproszonego na powierzchni apertury przy poszczególnych elementów promieniujących. Ewolucja anteny w tym kierunku umożliwiła stosowanie wyrafinowanych i złożonych adaptacyjnych algorytmów przetwarzania odebranych sygnałów nie tylko w czasie, ale także w przestrzeni poprzez stosowanie adaptacyjnych algorytmów cyfrowego formowania wiązek odbiorcz... więcej»

Sterowanie rozpływem mocy w sieciach elektroenergetycznych z wykorzystaniem algorytmu ewolucyjnego z warunkowym operatorem mutacji (Mirosław Gajer)
Artykuł stanowi propozycję wykorzystania techniki obliczeniowej bazującej na zastosowaniu algorytmów ewolucyjnych w celu zapewnienia takiego sposobu sterowania rozpływem mocy w elektroenergetycznych liniach przesyłowych, który byłby w stanie zapewnić generowanie możliwie jak najmniejszej mocy termicznych strat przesyłowych występujących w liniach elektroenergetycznych i transformatorach. Szczególną cechą algorytmu ewolucyjnego, zaimplementowanego w celu realizacji tak postawionego zadania, jest zastosowanie w jego przypadku warunkowego operatora mutacji, którego istotą jest wykonywanie operacji mutacji losowo wybranego genu, należącego do losowo wybranego osobnika, jedynie w przypadku spełnienia określonego warunku. Powstawanie termicznych strat przesyłowych w liniach elektroenergetycznych oraz w transformatorach jest nieuniknionym zjawiskiem wiążącym się z niezerową wartością rezystancji materiałów przewodzących prąd elektryczny. W latach dziewięćdziesiątych ubiegłego stulecia wydawało się, że postęp w dziedzinie nadprzewodników wysokotemperaturowych powinien już w stosunkowo krótkim czasie doprowadzić do odkrycia materiałów wykazujących zjawisko nadprzewodnictwa w temperaturach zbliżonych do temperatury pokojowej [1]. Project is enhanced with Google Technology. By using two and three dimensional APIs systems, it is possible to take advantage of many overlays and filters applied in CTCD application. Software lets user to choose multiple different options and render graphic visualization in expected configuration. Complex Tracking Circuit Design is ready, precision navigation solution, that works without dedicated receiver. Non-commercial software, backed with API Google Maps technology allows to render position of tracked object in graphical form with no cost. Project presents simple device, that may find many possible applications in areas such as people localization, objects and animal protection, parcel tracking or traf... więcej»

Wpływ szeregowej rezystancji przewodów oraz półprzewodnikowych detektorów paskowych na parametry szumowe układu detekcyjnego (Krzysztof Kasiński, Robert Szczygieł)
Półprzewodnikowy detektor paskowy jest zbudowany w postaci szeregu diod spolaryzowanych zaporowo zbudowanych na wspólnym podłożu (rys. 1a). Diody takie przybierają kształt pasków biegnących wzdłuż detektora. Zadaniem detektora jest zbieranie ładunku wygenerowanego wskutek interakcji cząstki lub kwantu promieniowania z detektorem. Dzięki paskowej budowie, istnieje możliwość wykrycia miejsca interakcji (obrazowanie jednowymiarowe). Przyłożone przez rezystory polaryzujące napięcie powoduje, że ładunek zdeponowany w detektorze wskutek interakcji jest zbierany już jako prąd przez paski dyfuzyjne oraz elektrodę w podłożu detektora. Często detektory mają tzw. sprzężenie AC (zmiennoprądowe) aby uniezależnić się od prądu upływu detektora. Jest to realizowane przez naniesienie na paski dyfuzyjne warstwy izolacyjnej a następnie pasków metalowych. Utworzony jest w ten sposób kondensator sprzęgający Cp-m. Jeśli chodzi o elementy pasożytnicze to można wyróżnić przede wszystkim rezystancję szeregową paska dyfuzyjnego (Rsp), paska metalu (Rsm) oraz pojemności: sprzęgająca Cp-m, pasek-podłoże Cp-g, pomiędzy paskami dyfuzyjnymi (Cp-p) oraz pomiędzy paskami metalu Cm-m). Szczegóły dotyczące elementów pasożytniczych, jak i ich wartości dla rozpatrywanego przypadku można znaleźć w tab. 2. Prąd wypływający z detektora, poprzez przewody wpływa do elektroniki odczytu, gdzie jest mierzony. Obwód wejściowy elektroniki stanowi najczęściej wzmacniacz ładunkowy (CSA), po którym zazwyczaj następuje komparator (rys. 2). Impuls prądowy jest całkowany we wzmacniaczu ładunkowym. W wyniku całkowania oraz kształtowania otrzymuje się impuls napięciowy, którego amplituda lub czas trwania (w zależności od konstrukcji układu) jest proporcjonalna do zdeponowanego ładunku. Na podstawie tej informacji dalsza część układu odczytowego może wykryć fakt zdeponowania ładunku wyższego niż pewien próg komparacji oraz opcjonalnie zmierzyć ten ładunek. Paskowy przewód kapton... więcej»

Rozwój technologii do monitorowania aktywności życiowej żołnierzy na polu walki oraz dla zastosowań na rynku cywilnym (Zenon Szczepaniak, Krzysztof Różanowski)
Ocena stanu zdrowia oraz ogólnej sprawności człowieka może być dokonana na podstawie znajomości wartości zestawu parametrów opisujących funkcje życiowe organizmu ludzkiego, takich jak ciśnienie krwi, saturacja, częstotliwość skurczów serca, parametry przebiegu EKG, temperatura ciała, poziom lub zmiany glikemii (poziomu glukozy we krwi) itp. W zastosowaniach wojskowych dane medyczne, które przenoszą informacje o stanie fizjologicznym człowieka (i umożliwiają przeprowadzenie ewentualnego wnioskowania o stanie psychicznym) są niezwykle cennym źródłem informacji niezbędnej podczas wybranych etapów selekcji i szkolenia żołnierzy sił specjalnych, jak również na polu walki. Uzyskanie możliwości ciągłego nieinwazyjnego pomiaru zmian glikemii daje narzędzie diagnostyczne o ogromnym potencjale. Zapotrzebowanie na zastosowania wojskowe i cywilne powoduje uzasadnienie kierunku rozwoju technologii i produktów, jakim jest opracowanie modułów do nieinwazyjnego pomiaru parametrów fizjologicznych człowieka. Moduł taki bazować będzie na zestawie kilku sensorów nieinwazyjnych. W zakres pomiarów wchodzić będą parametry z grupy: - częstotliwość rytmu serca, - częstotliwość oddechu, - przewodność elektryczna skóry, - saturacja (wysycenie tlenem krwi), - temperatura ciała. W sygnałach pozyskiwanych za pomocą wspomnianych czujników, tkwi znaczny potencjał diagnostyczny. Niemniej jednak, aby uzyskać pełną diagnostykę stanu fizjologicznego i psychicznego, istotna jest nieinwazyjna możliwość pomiaru poziomu glukozy we krwi. Monitorowanie tego parametru we krwi człowieka stanowi bezpośrednie źródło informacji o wydolności fizycznej organizmu (łącznie z przewidywaniem skrajnego wycieńczenia i możliwości zgonu), jak również pośrednio o potencjalnych zaburzeniach pracy mózgu. Ma to znaczenie zarówno w sytuacji: - kontroli wydolności zdrowego człowieka w warunkach ekstremalnego obciążenia, - jak również w przebiegu leczenia cukrzycy w zastosowaniach me... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3240-elektronika-konstrukcje-technologie-zastosowania-2012-2.html

 
W numerze m.in.:
Parametry detektorów MSM wykorzystujących heterostruktury GaAsN/GaAs i MQW InGaAsN/GaAs (Iwona Zborowska -Lindert, Beata Ściana, Damian Pucicki, Damian Radziewicz, Bogusław Boratyński ,Marek Tłaczała)
W ostatnich latach zaobserwowano znaczne zainteresowanie rozrzedzonymi azotkami (GaAsN), zarówno z powodu ich właściwości fizycznych, jak i możliwością wykorzystania badanych warstw ze względu na zakres pracy związany z szerokością przerwy energetycznej o wartości ok. 1 eV przy jednoczesnym dopasowaniu do sieci GaAs. Nawet niewielka ilość atomów azotu w sieci krystalograficznej GaAs powoduje zmniejszenie przerwy energetycznej o około 150 meV na 1% azotu dodawanego do związku GaAs. Jednocześnie dodanie atomów azotu zmienia stałą sieci krystalograficznej. Pojawiają się artykuły opisujące technologię i parametry różnego rodzaju przyrządów optoelektronicznych wykorzystujących struktury epitaksjalne rozcieńczonych azotków na przykład lasery [1], heterofototranzystory [2], rozmaite typy fotodetektorów [3, 4] i ogniwa słoneczne [5]. W tej pracy badany jest wpływ parametrów materiałowych na fotoodpowiedź detektorów MSM. Podstawowym problemem związanym z jakością fotodetektorów MSM jest powiązanie jego parametrów z wysokością bariery Schottky’ego kontaktów. W sytuacji, gdy bariera Schottky’ego jest niska, wzrasta prąd ciemny, co znacząco zmniejsza czułość fotodetektora. W pracy badano wartość prądu ciemnego i oceniano, czy jest ona dostatecznie niska, aby fotoodpowiedź MSM na warstwach GaAsN/GaAs i wielostudniach kwantowych (MQW) InGaAsN/GaAs była znacząco wyższa dla fal powyżej krawędzi absorbcji dla warstw GaAs czyli 870 nm. Technologia fotodetektorów MSM Badane fotodetektory MSM wykonane zostały na heterostrukturach rozcieńczonych azotków typu GaAsN oraz MQW InGaAsN/ GaAs wytworzonych w technologii MOCVD. Epitaksja MOCVD Heterostruktury wytworzono na półizolacyjnych podłożach Ga... więcej»

Wybrane projekty koła naukowego MikroCpp - zastosowania systemu Android w elektronice (Krzysztof Urbański)
Koło naukowe MikroCpp powstało w 2008 roku na Wydziale Elektroniki Mikrosystemów i Fotoniki i od początku swojej działalności zajmuje się zagadnieniami związanymi z elektroniką (głównie cyfrową), programowaniem (aplikacyjnym i niskopoziomowym) oraz wymianą i przetwarzaniem danych. Spośród projektów, które były realizowane do tej pory, warto wymienić zwłaszcza te związane z rozwiązaniami programowymi i sprzętowymi na potrzeby sieci bezprzewodowych czujników oraz mikrokontrolerów wyposażonych w interfejs Ethernet. Artykuł "A battery-free wireless sensor platform powered with multiple energy sources" i wystąpienie mgra inż. Kamila Allafa na Konferencji Naukowej Studentów w 2011 r. zostało wyróżnione pierwszą nagrodą w sekcji "Computerization of modern way of life - transmission and analysis of information". Działalność koła to jednak przede wszystkim popularyzacja wiedzy o projektowaniu i programowaniu urządzeń wyposażonych w mikrokontrolery - wśród studentów i nie tylko. Nie byłoby możliwe zaprojektowanie i uruchomienie większości układów którymi się zajmujemy, bez praktycznej znajomości mikrokontrolerów i ich umiejętności ich programowania. Działalność na pograniczu dwóch dziedzin - elektroniki i informatyki - doskonale wpisuje się w trendy obserwowane na rynku urządzeń mikroprocesorowych. Mikrokontrolery jednoukładowe są wyposażane w coraz większe zasoby pamięci oraz coraz wydajniejsze rdzenie CPU (ang. Central Processing Unit). Pozwala to na uruchamianie coraz bardziej zaawansowanych aplikacji, a dzięki malejącej cenie tych układów są one instalowane praktycznie wszędzie. Równocześnie zaobserwować można ciągły spadek cen energooszczędnych, wydajnych mikrokontrolerów aplikacyjnych, co zachęca do ich zastosowania w prostszych układach elektronicznych, a... więcej»

Wpływ wygrzewania na nanokrystaliczne cienkie warstwy na bazie TiO2 na przykładzie TiO2:Nd (Michał Mazur, Damian Wojcieszak , Karolina Sieradzka, Danuta Kaczmarek, Jarosław Domaradzki , Eugeniusz L. Prociów)
Doskonałe właściwości optyczne, mechaniczne oraz termiczne sprawiają, że dwutlenek tytanu (TiO2) jest jednym z podstawowych materiałów szeroko wykorzystywanych w różnych dziedzinach techniki. TiO2charakteryzuje się bardzo dobrą przezroczystością (powyżej 80%), dużym współczynnikiem załamania światła (>2,3) oraz dużą względną przenikalnością elektryczną (>80). Dodatkowo właściwości tego materiału zależą od typu jego struktury krystalicznej, na którą można wpływać, między innymi, przez wygrzewanie. Lantanowce to pierwiastki, które rzadko występują w przyrodzie, lecz mają bardzo szerokie zastosowanie w takich obszarach, jak optoelektronika, optyka, czy ceramika [1]. Związki pierwiastków ziem rzadkich mają szczególne znaczenie w produkcji luminoforów, laserów, trwałych magnesów czy wysokotemperaturowych nadprzewodników [1]. Między innymi neodym używany jest do produkcji jednych z najważniejszych laserów, w których matrycę stanowi szkło i granat itrowo-glinowy (YAG). Lasery te stosowane są np. w medycynie przy zabiegach okulistycznych oraz stomatologicznych. Lantanowce stosuje się też jako domieszki w celu modyfikacji właściwości matrycy TiO2 [2]. Dla przykładu domieszkowanie lantanowcami może wzmacniać efekt luminescencji [3-6] lub zwiększać aktywność fotokatalityczną [7, 8]. Oprócz domieszkowania, również wygrzewanie jest jednym ze sposobów zmiany, który pozwala uzyskać różne właściwości cienkich warstw. W ten sposób można wpływać, między innymi, na fazę krystaliczną i rozmiar ziaren w wytworzonych cienkich warstwach [9]. Dwutlenek tytanu może występować w trzech różnych fazach: brukitu, anatazu oraz rutylu. Jednakże jedynie fazy anatazu i rutylu są użyteczne ze względu na różne zastosowania. W pracy przedstawiono wpływ wygrzewania na właściwości strukturalne oraz na... więcej»

Czujnik wodoru AlGaN/GaN FAT-HEMT (Bogdan Paszkiewicz, Mateusz Wośko, Wojciech Macherzyński, Regina Paszkiewicz, Marek Tłaczała)
Heterostruktury AlGaN/GaN typu HEMT (ang. High Electron Mobility Transistors), ze względu na swoje unikalne właściwości [1], stanowią podstawę konstrukcji wielu przyrządów Elektronicznych - tranzystorów mikrofalowych [2], w tym na zakres THz, czujników gazów [3] i przetworników w czujnikach biologicznych [2]. Jest to związane z dużą nasyconą prędkością unoszenia elektronów 2DEG (ang. Two-Dimensional Electron Gas) w kanale tranzystora (~2,5 × 107 cm/s), dużym maksymalnym napięciem przebicia (~3,3 MV/cm) oraz odpornością materiału na działanie czynników chemicznych i wysokiej temperatury. Jednym z istotnych wyzwań współczesnej elektroniki jest ich zastosowanie do konstrukcji czujników wodoru, które będą mogły pracować w systemach bezpieczeństwa silników na paliwo wodorowe i wodorowych ogniw paliwowych. Aby czujniki te mogły być zastosowane, do detekcji nieszczelności muszą zapewniać szybki czas reakcji na wodór, już przy możliwie małych jego koncentracjach oraz szeroki zakres defekowanych stężeń. W WEMiF PWr opracowano technologię i konstrukcję diodowych i tranzystorowych czujników wodoru na bazie heterostruktur AlGaN/GaN z palladowymi i platynowymi elektrodami katalitycznymi [4]. Typowo odpowiedzi czujników wodoru na bazie hetero struktur AlGaN/GaN są badane w zakresie koncentracji wodoru od dziesiątek do setek ppm [5]. W artykule zbadano odpowiedzi opracowanego w WEMiF PWr, czujnika AlGaN typu FAT-HEMT (tzw. "Tłusty-HEMT") z bramką katalityczną Pt) w szerokim zakresie stężeń wodoru w azocie 0,1…3000 ppm w celu określenia potencjalnych obszarów zastosowań tego rodzaju czujników. Wytwarzanie czujników wodoru Heterostruktury AlGaN/GaN osadzano w stanowisku CCS 3 × 2" firmy AIXTRON na podłożach szafirowych o orientacji c techniką MOVPE (Metalorganic Vapor Phase Epitaxy). Niedomieszkowana warstwa Al0.22Ga078N, o grubości 25 nm, była osadzana na wysokorezystywnej warstwie GaN o grubości 2 μm. Metodą spektroskopii imped... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju – część 2 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, zwłaszcza półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wówczas koncepcji rozwiązań tego typu urządzeń. Próbowano wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Ponadto rozmieszczenie dużej gabarytowo i ciężkiej aparatury na platformie samochodowej (mobilnej) było praktycznie niemożliwe. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, ogólnie zarówno w płaszczyźnie elewacji, jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można w razie potrzeby dynamicznie regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, rakiety, w tym balistyczne, oraz różnego rodzaju pociski, głównie moździerzowe. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Pojęcie radaru wielofunkcyjnego odnosi się do nowoczesnych systemów radiolokacyjnych, które oprócz "standardowego" określenia współrzędnych położenia wykrywanych celów ruchomych p... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3197-elektronika-konstrukcje-technologie-zastosowania-2012-1.html

 
W numerze m.in.:
Electrocatalytic sensor based on Nasicon with auxiliary layer (Anna Strzelczyk, Grzegorz Jasiński, Piotr Jasiński, Bogdan Chachulski )
In recent years electrochemical gas sensors based on solid state electrolytes have been intensively investigated. They are relatively easy to fabricate, simple in use and quite durable. Nasicon (Na Super Ionic Conductor) is one of the most promising materials, which have been used in construction of gas sensors. Sensors based on Nasicon are used for detecting of different gases including carbon oxides [1, 2], nitrogen oxides [3-6] and sulfur dioxide [7]. Most of these devices operate in potentiometric or amperometric mode. In case of some sensor constructions, besides electrolyte and metal electrodes, additional layers are applied. In some cases such phase is required to obtain sensitivity to specific gas or to shift operating temperature to more preferred one [7]. In other cases sensor properties such as selectivity or stability are improved. Auxiliary phase usually forms extra interface between measured gaseous compound and electrolyte or electrodes. For example, in case of amperometric sensors, it was noticed, that presence of auxiliary layer on surface of sensing electrode can increase the number of reaction sites thus improving sensor sensitivity [5]. Auxiliary layer may also be used to create a diffusion barrier. In case of the potentiometric or amperometric nitrogen oxides sensors based... więcej»

Investigation of multiple degradation and rejuvenation cycles of electroluminescent thick film structures (MATEUSZ MROCZKOWSKI, MICHAŁ CIEŻ, JERZY KALENIK)
Copper doped zinc sulfide displays electroluminescent prosperities and it is used as a phosphor in thick film light emitting structures. Such electroluminescent structures, or alternating current electroluminescent devices (ACEL), are used as backlight for liquid crystal displays in portable electronic devices (cell phones, notebooks, PDAs, etc.) and as a source of light in the advertising industry. Unfortunately such structures are prone to degradation and have a limited life time [1, 2]. Degraded electroluminescent thick film structures can be rejuvenated by annealing [1]. An attempt to investigate the possibility of repeated rejuvenation of degraded EL lamps was undertaken. The goal of this investigation is to better understand the mechanism of degradation and rejuvenation of thick film EL lamps and prolong their life time. Alternating Current Electroluminescent Devices (ACEL) Typical EL lamps are fabricated as a multi-layer thick film structures. A layer of phosphor, for examp... więcej»

Aktywne anteny radarów wielofunkcyjnych - analiza stanu i perspektywy rozwoju - część 1 (Edward Sędek )
W ostatnich latach obserwuje się rozwój radarów wielofunkcyjnych z aktywnymi antenami ścianowymi, który stał się możliwy dzięki dynamicznemu postępowi zarówno w zakresie nowych materiałów mikrofalowych, jak i monolitycznych układów scalonych (MIMIC) [1-7]. Ogólnie można stwierdzić, że postęp w zakresie nowych materiałów, w szczególności półprzewodnikowych, umożliwił opracowanie anten aktywnych, co w przeszłości było praktycznie niemożliwe pomimo istniejących wtedy koncepcji rozwiązań tego typu urządzeń. Próbowano wówczas wykorzystywać technologie lampowe (LFB), ale ich nadmiernie wysoki koszt i gabaryty odstraszały przyszłych użytkowników wojskowych. Współczesna aktywna antena radiolokacyjna stanowi macierzowy szyk elementów promieniujących zasilanych energią elektromagnetyczną za pomocą modułów nadawczo-odbiorczych (T/R) sterowanych poprzez mikrofalowe, cyfrowe przesuwniki fazy. Technika ta pozwala na elektroniczne skanowanie przestrzeni wiązką antenową, w ogólności zarówno w płaszczyźnie elewacji jak i azymutu. Pełną możliwość oddziaływania na kształt wiązki uzyskuje się wtedy, gdy w każdym elemencie promieniującym zastosuje się przesuwnik fazy i układ regulujący amplitudę. Wówczas można dynamicznie, w razie potrzeby, regulować jej kształt w czasie rzeczywistym, tzn. jej szerokość zarówno w azymucie, jak i w elewacji [8-10]. Możliwość ta jest niezmiernie przydatna w przypadku śledzenia obiektów powietrznych, takich jak samoloty bojowe, wystrzeliwane rakiety oraz rakiety balistyczne. Rozwój radiolokacji wymusza coraz większe wymagania stawiane antenom i systemom antenowym stosowanym w nowoczesnych radarach. Coraz większy nacisk kładzie sie na ich integrację i wielofunkcyjność. Wymaga się jednocześnie zachowania parametrów elektrycznych na poziomie porównywalnym do parametrów anten stosowanych w systemach jednofunkcyjnych. Szybki postęp technologiczny pozwala współczesnym radarom realizować jednocześnie wiele funkcji, takich... więcej»

Modulacja amplitudy sygnałem pseudolosowym (Rafał Stępień, Janusz Walczak)
Sygnały pseudolosowe wykorzystywane są w wielu dziedzinach techniki. Są one stosowane między innymi w metodzie analizy Monte Carlo [13], symulatorach procesów ekonomicznych czy technologicznych oraz kryptografii [1]. W telekomunikacji są one stosowane w systemach transmisji z widmem rozproszonym DSSS [10]. Istnieje wiele metod generacji sygnałów pseudolosowych [1, 8, 13]. Niektóre metody generacji sygnałów pseudolosowych i własności sekwencji pseudolosowych opisano w dalszej części artykułu. Modulacja amplitudy należy do najprostszych rodzajów modulacji wykorzystywanych w technice. Znanych jest kilka rodzajów tej modulacji [12]. Najczęściej rozpatruje się przypadek modulacji monoharmonicznej fali nośnej sinusoidalnym sygnałem modulującym [12]. Efektem tej modulacji jest przesunięcie widma sygnału modulującego w otoczenie częstotliwości fali nośnej. W artykule rozpatrzono problem modulacji amplitudy monoharmonicznej fali nośnej sygnałem pseudolosowym, w efekcie widmo sygnału pseudolosowego zostaje przesunięte w zakres częstotliwości fali nośnej [19]. Jednym z możliwych zastosowań rozpatrywanego procesu modulacji jest możliwość zagłuszania transmisji w wybranym zakresie częstotliwości kanału transmisyjnego [16]. W porównaniu z innymi metodami zagłuszania transmisji [17] zaproponowana metoda jest relatywnie prosta. W artykule zaproponowano układ realizujący proces modulacji i zbadano doświadczalnie możliwość zagłuszania transmisji w zakresie radiofonii FM-CCIR. Sygnały pseudolosowe i wybrane metody ich generacji W technice cyfrowej generacja liczb pełni losowych nie jest możliwa. Urządzenia cyfrowe są z założenia układami w pełni deterministycznymi (o skończonej liczbie stanów) i nie mają właściwości losowych. W kryptografii wykorzystuje się jednak algorytmy generujące ciągi pseudolosowe [1]. Dla obserwatora sekwencji wyjściowej generatora ciągi takie mogą mieć cechy losowe i odróżnienie sekwencji pseudolosowej od sekwencji w ... więcej»

Dynamic research of foot pressure distribution - the four-points shoe insert with PVDF sensors (Ewa Klimiec, Wiesław Zaraska, Szymon Kuczyński)
The human foot structure majorly decides about his/her movement possibilities. Correctly constructed foot is arched on internal side. The weight is distributed in a way, that medial arch acts like a shock absorber, by softening shocks caused by walking. Correctness of the foot structure can be estimate, by examining foot pressure distribution on the ground. Faulty posture manifest itself by different than correct, foot pressure distribution on the ground. Currently there are two measuring systems on the market, allowing diagnosis. It is EMed-SF [1, 2] and PEDAR - System [3, 4]. In the first one, examined person crosses through the track, placing third step on the measuring platform. Contact with the platform surface should be measured in a natural way so, that there was no measuring distortion by aware step shortening or lengthening. For this purpose, several trials heve to be done and starter has to be suitably set up. Obtained results are in the form of map which shows the pressure distribution on foot contact surface with measuring platform in N/cm2. The example of recorded pressure distribution for healthy foot structure is shown on Fig.1. ted: under the heel, medial arch, mid-foot and hallux. Films were glued together. The view of the four-points measuring shoe insert is shown on Fig. 2. Fig. 1. Pressure distribution of healthy foot to the ground recorded by EMed-SF system Rys. 1. Rozkład nacisku prawidłowo zbudowanej stopy na podłoże, zarejestrowany przez EMed-SF system Data presented on Fig. 1 shows that for healthy foot, the biggest values of the pressure are observe under heel, midfoot and on hallux. Measuring system PEDAR is characterized by the fact that we examine the foot pressure between foot and shoe sole. The pressure is recorded by pressure sensors which are installed into shoe insole. The system is expensive and shoe insole very thick. It will be profitable to develop competitive system which will be able t... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»