profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-12

zeszyt-4245-elektronika-konstrukcje-technologie-zastosowania-2014-12.html

 
W numerze m.in.:
Silent Circle - zaklęty krąg nowoczesnej kryptografii dla wszystkich DOI:10.15199/ELE-2014-218
(Wojciech Nowakowski)

W 2011 roku Phil Zimmermann, twórca powszechnie stosowanego w internecie protokołu PGP (ang. Pretty Good Privacy, całkiem niezła prywatność) zapewniającego poufność poczty elektronicznej oraz Mike Janke, były specjalista od zabezpieczeń US Navy SEAL a także Jon Callas, twórca oprogramowania szyfrującego zawartość dysków twardych (Whole Disk Encryption Apple), powołali firmę Silent Circle dla stworzenia pierwszej na świecie prywatnej bezpiecznej łączności cyfrowej, zarówno głosowej, tekstowej jak i wideo, a także transmisji plików. Silent Circle jest obecnie uznaną firmą zapewniającą rzeczywiście bezpieczną komunikację cyfrową dzięki wykorzystaniu technologii kryptograficznych oferując w ponad 130 krajach tani i jednocześnie zaawansowany system szyfrowanych usług komunikacyjnych na bazie protokół ZRTP [1]. Pierwszym na świecie operatorem telekomunikacyjnym oferującym usługi szyfrowanych połączeń mobilnych firmy Silent Circle jest holenderski KPN (Koninklijke KPN NV, wcześniej Koninklijke PTT Nederland). KPN informuje [2], że aplikacje Silent Circle są dostępne dla klientów biznesowych poprzez kpn.com/cloud. Aplikacje te dostępne są poprzez smartfony i tablety z systemem iOS lub Android. Silent Network Podstawą działania cyfrowej łączności szyfrowanej firmy Silent Circle jest Silent Network, czyli zamknięta, nie współdzielona sieć prywatna. Składa się ona z dedykowanych serwerów, kodeków, szeregu urządzeń specjalnych i oprogramowania, specjalnie zaprojektowanych dla zapewnienia bezpieczeństwa informacji (ang. security integrated through design), w czym twórcy firmy są uznanymi autorytetami. Warto podkreślić, że matematyczne instrumentarium stosowane we współczesnej kryptog... więcej»

Zaawansowane metody przetwarzania danych georadarowych oraz automatyczne rozpoznawanie anomalii w strukturach geologicznych DOI:10.15199/ELE-2014-222
(Piotr Szymczyk, Henryk Marcak, Sylwia Tomecka -Suchoń, Magdalena Szymczyk, Mirosław Gajer, Tomisław Gołębiowski)

Artykuł przedstawia wykorzystanie nowoczesnych rozwiązań pomiarowych i naukowych z dziedziny sieci neuronowych do rozpoznawania pewnych struktur geologicznych, jakimi są pustki, dziury lub rozrzedzenia w wale przeciwpowodziowym. W wyniku przeprowadzonych badań udało się zaproponować metodę do klasyfikacji sygnałów georadarowych. W artykule przedstawiono zastosowane jednej z nieinwazyjnych geofizycznych technik elektromagnetycznych, tzn. metody georadarowej (GPR) do badania struktur geologicznych. W metodach georadarowych wykonywanych przy użyciu GPR wykorzystuje się fale elektromagnetyczne w zakresie częstotliwości od 10 MHz do kilku GHz do bezinwazyjnego badania budowy geologicznej, monitoringu procesów zachodzących w gruncie oraz do lokalizacji obiektów antropogenicznych. W skład aparatury wchodzi jednostka centralna, odbiornik, nadajnik, anteny nadawcza i odbiorcza. Antena nadawcza emituje w głąb ośrodka geologicznego impuls elektromagnetyczny. Impuls ten w postaci sygnału falowego może być odbity, rozproszony lub refragowany na niejednorodnościach w budowie geologicznej ośrodka i rejestrowany przez anteny odbiorcze. Antena odbiorcza rejestruje sygnały odbite, które zapisywane są w formacie cyfrowym w komputerze. Zapis taki nazywany echogramem, to rozkład amplitud fali odbitej na płaszczyźnie x t, gdzie x - długość profilu na osi poziomej w metrach, t - rejestrowany czas na osi pionowej w nanosekundach. Propagacja fali EM zależy od parametrów elektromagnetycznych ośrodka tzn. od względnej stałej dielektrycznej oraz od elektrycznej przewodności właściwej. Badania geologiczne prowadzi się w ośrodkach geologicznych, które są dielektrykami i są ośrodkami niemagnetycznymi więc do ich opisu stosuje się tzw. przenikalność względną dielektryczną. Opis danych pomiarowych GPR Jednym ze skutków płytkiej eksploatacji górniczej jest powstawanie pustek, czyli zmian własności mechanicznych niektórych obszarów górotworu w wyniku niejed... więcej»

Zaawansowane Systemy Elektroniczne i Fotoniczne - WILGA 2014. Część 2 - Systemy elektroniczne dla eksperymentów fizyki wielkich energii DOI:10.15199/ELE-2014-219
(Ryszard S. Romaniuk)

Sympozjum młodej nauki Sympozjum młodych uczonych Wilga 2014 odbyło się tradycyjnie w tygodniu na przełomie maja i czerwca br. w Wildze pod Warszawą [wilga.ise.pw.edu.pl]. Sympozjum WILGA obejmuje tematykę zaawansowanych układów i systemów fotonicznych i elektronicznych. Udział wzięło około 350 osób. Wygłoszono około 250 referatów. Główna część prac sympozjum, około 150 artykułów, jest opublikowana w tomie Proc. SPIE vol. 9290 [spie.org]. Tom SPIE 9290 zawiera także kilkanaście prac przedstawionych w czasie styczniowej edycji Sympozjum Wilga. Kilkanaście prac opublikowano w Elektronice [elektronika.orf.pl], Photonics Letters of Poland [photonics. pl/plp], IJET - International Journal of Electronics and Telecommunications [ijet.pl], itp. Współczynnik akceptacji prac wynosił ok. 50%. Materiały poprzedniego Sympozjum Wilga 2013 zostały opublikowane w tomie Proc. SPIE vol. 8903. Około połowy uczestników Sympozjum WILGA to doktoranci, a ok. 20% to magistranci. Pozostali uczestnicy to najczęściej opiekunowie młodzieży naukowej. W Wildze prezentują się także studenci i doktoranci zagraniczni przebywający w Polsce w ramach projektów międzynarodowych, konsorcjów dla eksperymentów HEP, programów wymiany akademickiej, jak np. Erasmus, itp. Sympozjum jest organizowane przez młodych uczonych z ISE PW - Grupa Naukowa ELHEP i organizacji IEEE, SPIE, OSA, PSP, SEP dla młodych uczonych. Patronat nad Sympozjum sprawuje: KEiT PAN, PKOpto SEP, PSP i WEiTI PW. W prawie dwudziestoletniej historii Sympozjum WILGA opublikowało kilkanaście tomów Proc.SPIE z ponad 1500 artykułami naukowo-technicznymi (głównie w autorstwie polskich młodych uczonych) dostępnych w bazach danych Web of Knowledge oraz Scopus, a także Google Scholar, i innych w tym krajowych jak BazTech, Baza Wiedzy Politechniki Warszawskiej, Polska Bibliografia Naukowa, Ce-ON w ramach systemu Pol-ON. Opublikowano także kilka wydań specjalnych czasopism naukowo-technicznych. Jest to abs... więcej»

Synteza i implementacja układu sterowania w strukturze FPGA opisanego językiem SFC zgodnego z IEC61131 DOI:10.15199/ELE-2014-213
(Adam Milik, Andrzej Pułka)

Sterownik programowalny PLC jest komputerem przemysłowym używanym od wczesnych lat 70 XX wieku. Został on zaprojektowany w celu zastąpienia przekaźnikowych systemów sterowania. Dzięki rozwojowi i standaryzacji języków programowania budowa systemów sterowania uległa istotnemu uproszczeniu. Realizacja programu sterowania ma charakter szeregoweo-cyklicznego przetwarzania instrukcji [5, 7]. Jest to istotnym czynnikiem ograniczającym wydajność, podczas gdy wiele fragmentów programu sterowania nie jest wzajemnie zależnych i może zostać wykonane w sposób równoległy [2, 10]. A. Alternatywna koncepcja implementacji sterownika Technologia FPGA umożliwia dokonanie oceny własności złożonych dedykowanych układów obliczeniowych i przetwarzających takich jak sterowniki PLC. Prowadzone badania [2] pozwoliły wprowadzić znaczące udoskonalenia w architekturze jednostek centralnych PLC, wykorzystując w niewielkim stopniu sprzętowe zrównoleglenie wykonywanych operacji (np. jednostki dwurdzeniowe bitowo-bajtowe). Bardziej pożądanym rozwiązaniem jest przeprowadzenie pełnej syntezy sprzętowego układu sterowania charakteryzującego się równoległym przetwarzaniem programu. Wykorzystuje się tutaj możliwość programowego dostosowania architektury sprzętowej układu FPGA. Złożoność procesu implementacji wymaga zbudowania narzędzi automatycznych dla standardowych języków programowania [7]. Poprzednie implementacje kompilatorów dokonywały bezpośredniej zamiany konstrukcji językowych na elementy sprzętowe. Prowadziło to do niezgodności odpowiedzi, która została zauważona w kilku pracach np. [6, 10]. Próbę jej rozwiązania ograniczono jedynie do operacji logicznych. Implementacja operacji arytmetycznych wymaga rozwiązania zagadnień związanych z kolejnością przetwarzania oraz ograniczonymi zasobami sprzętowymi dostępnymi w układzie [6]. W pracy [3] zaproponowano dokonanie kompilacji programu sterowania do opisu w języku C, przekazywanego do komercyjnie dostęp... więcej»

Rozwój systemu COSPAS-SARSAT DOI:10.15199/ELE-2014-220
(Jerzy Czajkowski)

System COSPAS-SARSAT stanowi bardzo istotny podsystem składowy Światowego Morskiego Systemu Łączności Alarmowej i Bezpieczeństwa zapewniając realizację jego najistotniejszej funkcji jaką jest alarmowanie. W przypadku zaistnienia niebezpieczeństwa na wodzie, w powietrzu lub na lądzie umożliwia on organizacjom poszukiwania i ratowania - SAR - prowadzenie akcji ratowania. Od momentu jego powstania jest nieustannie rozbudowywany, stwarzając coraz bardziej dogodne możliwości realizowania powierzonych mu funkcji. Aktualnie system składa się z trzech części [2]: - segmentu kosmicznego, w skład którego wchodzą - satelity niskoorbitalne - LEO (Low Earth Orbit) krążące na orbitach biegunowych tworząc system LEOSAR - satelity geostacjonarne - GEO (Geostationary Earth Orbit) rozmieszczone w płaszczyźnie równika tworząc system GEOSAR - segmentu naziemnego składającego się z: - lokalnych stacji odbiorczych LUT (Local User Terminal) - centr sterowania systemem MCC (Mission Control Centres) - radiopław: - morskich - EPIRB (Emergency Position-Indicating Radio Beacon) pracujących na częstotliwości 406 MHz, - lotniczych ELT (Emergency Locator Transmi... więcej»

Zobacz wszystkie publikacje »

2014-11

zeszyt-4222-elektronika-konstrukcje-technologie-zastosowania-2014-11.html

 
W numerze m.in.:
Helikalne i mikropaskowe szyki antenowe zasilane z falowodu radialnego DOI:10.15199/ELE-2014-202
(Edward Sędek, Andrzej Jeziorski )

Szyki antenowe są szeroko stosowane w radiolokacji i telekomunikacji. Skutecznie wyparły anteny reflektorowe z większości aplikacji, praktycznie we wszystkich użytkowanych pasmach częstotliwości [3]. Jedna z istotnych zalet szyków antenowych jest możliwość lepszego wykorzystania apertury anteny, co może mieć istotne znaczenie np. w zastosowaniach mobilnych. Efektywności wykorzystania apertur obliczonych anten z promiennikami helikalnymi i mikropaskowymi wynoszą w obydwu przypadkach - 77%. Spotykana w praktyce efektywność anten reflektorowych wynosi 6-80%, przy czym wyższe wartości dotyczą anten dwureflektorowych [3, 8]. W antenach dwureflektorowych istnieje bowiem możliwość przeprowadzenia syntezy, polegającej na takiej zmianie (modyfikacji) przekrojów reflektora i kontrreflektora, aby przy zadanej charakterystyce promieniowania źródła oświetlającego uzyskać na aperturze reflektora zadany rozkład pola, a więc, jednoznacznie określoną wartość współczynnika wykorzystania apertury [8]. Jedną z najważniejszych zalet szyków antenowych jest możliwość swobodnego wyboru rozkładu pobudzania elementów promieniujących. Jednak praktyczna jej realizacja napotyka na cały szereg trudności. Najważniejszą z nich jest złożoność układu zasilania promienników, rosnąca bardzo szybko ze wzrostem ilości promienników. W związku z tym stosuje sie szereg metod zmniejszających te trudności, np. podział szyku na podszyki, szeregowe zasilanie elementów promieniujących. Dyskutowana w niniejszej pracy problematyka szyków antenowych p... więcej»

Koncepcja pomiaru odległości w radarze pasywnym wykorzystującym mikrofalowe dyskryminatory fazy i częstotliwości DOI:10.15199/ELE-2014-200
(Adam Konrad Rutkowski)

Radar pasywny, określany również mianem radaru typu PCL (ang. Passive Coherent Location), jest urządzeniem (systemem) wykrywającym i lokalizującym obiekty przy użyciu sygnałów mikrofalowych emitowanych przez nadajniki, przede wszystkim, innego "nie radiolokacyjnego" przeznaczenia. Z punktu widzenia radaru pasywnego, tego rodzaju sygnały są emisjami nieintencjonalnymi (ang. emmision of opportunity, illumination of opportunity), a emitujące je urządzenia nazywa się nadajnikami niewspółpracującymi (ang. non-cooperative emitter, non-cooperative illuminator, non-cooperative illuminator of opportunity) [10-13]. Radar pasywny nie posiada własnego nadajnika, a jedynie odbiornik oraz rozbudowane bloki zaawansowanego przetwarzania sygnałów i zobrazowania informacji. Bieżąca analiza parametrów sygnałów mikrofalowych występujących w monitorowanej przestrzeni pozwala wykryć moment pojawienia się obiektu oraz określić jego chwilowe położenie. W podstawowych warunkach radar pasywny detekuje tylko fakt pojawienia się obiektu w obserwowanej przestrzeni. Pełna informacja o wykrytym obiekcie obejmuje między innymi kierunek położenia celu i odległość do niego. Sygnały nieintencjonalne wykorzystywane w radiolokacji pasywnej mogą charakteryzować się zmienną w czasie amplitudą, częstotliwością i fazą. Między innymi z tego powodu, do analizy parametrów sygnałów echa oraz do namierzania obiektów, które te sygnały odbiły jest wskazane stosowanie układów natychmiastowego pomiaru fazy NPF, natychmiastowego pomiaru częstotliwości NPCz oraz natychmiastowego pomiaru kąta nadejścia sygnału NPKNS [1-5, 8, 9, 13]. Funkcje tych układów mogą być realizowane sprzętowo przy użyciu mikrofalowych dyskryminatorów fazy MDF i mikrofalowych dyskryminatorów częstotliwości MDCz, lub programowo. To drugie rozwiązanie zalicza się do grupy tak zwanych definiowanych programowo (ang. Software Defined). Idea pracy kwadraturowego mikrofalowego dyskryminatora fazy Przeznaczen... więcej»

Wysokoczuły system wykrywania i monitorowania zanieczyszczeń gazowych atmosfery DOI:10.15199/ELE-2014-193
(Marcin Miczuga, Krzysztof Kopczyński, Jan Pietrzak)

Na przestrzeni kilku ostatnich dziesięcioleci obserwowany jest gwałtowny wzrost poziomu zanieczyszczeń atmosfery toksycznymi gazami przemysłowymi. Spowodowany jest on wykorzystaniem w procesach produkcji przemysłowej coraz większej liczby i ilości gazów i substancji chemicznych, ich magazynowaniem oraz transportem. Coraz bardziej realna staje się także groźba niezamierzonego uwolnienia do atmosfery dużych ilości szkodliwych gazów na skutek wycieku lub katastrofy przemysłowej. Wzrost poziomu świadomości ekologicznej społeczeństwa, naciski wywierane na rządy państw uprzemysłowionych oraz poznanie wpływu zanieczyszczenia środowiska na przyszłość ludzkości przyczyniły się do zintensyfikowania wysiłków zmierzających do ograniczenia emisji gazów do atmosfery oraz ciągłego monitorowania ich poziomu w niej. Wykrywanie i monitorowanie śladowych ilości zanieczyszczeń gazowych atmosfery wymaga stosowania szybkich, czułych i niezawodnych systemów detekcji. Na przestrzeni kilku ostatnich lat obserwowany jest znaczny wzrost zainteresowania optycznymi systemami detekcji gazów. Są one coraz powszechniej stosowane w monitoringu zanieczyszczeń atmosfery, w diagnostyce medycznej, w systemach bezpieczeństwa oraz technice wojskowej [1, 2]. Na skutek znacznego postępu w technologii wytwarzania laserów kaskadowych, jaki dokonał się w ciągu kilku ostatnich lat, lasery te charakteryzują się coraz lepszymi parametrami technicznymi. Znacznie uległ także wydłużeniu czas ciągłej, bezawaryjnej pracy laserów [3]. Zastosowanie laserów kaskadowych w spektroskopowych metodach detekcji umożliwia wykrywanie i ciągłe monitorowanie poziomu gazów zanieczyszczających atmosferę o stężeniach rzędu pojedynczych ppt [4]. Spektroskopowe systemy detekcji zawierających lasery kaskadowe mogą nieprzerwanie, bezobsługowo monitorować stężenie gazów w atmosferze na przestrzeni wielu miesięcy [5]. Budowa systemu wykrywania System wykrywania i monitorowania zanieczyszczeń gazo... więcej»

Laureaci konkursu Dobry Wzór 2014
Jury pod przewodnictwem Katarzyny Rzehak, dyrektor kreatywnej Instytutu Wzornictwa Przemysłowego przyznało nagrody w tegorocznej, XXI edycji konkursu Dobry Wzór. Kilka prezentowanych w konkursie wyrobów miało swoje korzenie w elektryce i elektronice. A oto one (w kolejności przypadkowej, nie oznaczającej hierarchii): Grzejnik PLC - za oryginalną formę urządzenia, które przełamuje banalny schemat grzejnika domowego. Przy projektowaniu urządzenia wykorzystano... więcej»

Obliczanie współczynnika absorbcji supersieci InAs/GaSb DOI:10.15199/ELE-2014-197
(Elżbieta Machowska-Podsiadło, Maciej Bugajski)

Supersieci II-rodzaju InAs/GaSb są strukturami półprzewodnikowymi o bardzo obiecujących właściwościach, znajdującymi zastosowanie w detektorach na zakres średniej oraz dalekiej podczerwieni (MWIR oraz LWIR) jak również w przyrządach emitujących promieniowanie podczerwone, takich jak diody laserowe i kwantowe lasery kaskadowe (ICL). W periodycznych strukturach InAs/ GaSb obserwowany jest charakterystyczny układ pasm przewodnictwa oraz walencyjnego (rys. 1), który z jednej strony powoduje przestrzenną separację elektronów oraz dziur odpowiednio w obszarze InAs oraz GaSb (co zmniejsza przekrywanie się ich funkcji falowych i w pewnym stopniu pogarsza właściwości optoelektroniczne struktury), z drugiej jednak strony daje możliwość projektowania struktur do detekcji (emisji) promieniowania z szerokiego zakresu długości fal. Właściwości optoelektroniczne supersieci InAs/GaSb zależą od (a) grubości warstw składowych (InAs i GaSb), (b) powierzchni międzyfazowych na ich styku (w szczególności od rodzaju, grubości tych powierzchni i wynikających z nich naprężeń, a także (c) od czynników zewnętrznych, wśród których do najważniejszych zalicza się temperatura. Warto podkreślić, że zaletą przyrządów wykonanych na bazie supersieci InAs/GaSb jest możliwość pracy w temperaturze pokojowej. Zdolność absorbcji promieniowania podczerwonego przez daną strukturę jest opisywana za pomocą współczynnika absorpcji α. Wyznaczenie jego wartości wymaga znajomości struktury pasmowej supersieci, jak również funkcji falowych elektronów oraz dziur w poszczególnych podpasmach energetycznych struktury. Metoda Współczynnik absorpcji (promieniowania) supersieci InAs/GaSb jest opisany zależnością [2]: (1) gdzie: ε0 jest przenikalnością elektryczną próżni, c prędkością światła, m0 masą spoczynkową elektronu. Pozostałe wielkości we wzorze opisują: współczynnik załamania n, częstość kołową promieniowania padającego na strukturę ω oraz objętość rozwa... więcej»

Zobacz wszystkie publikacje »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Chip-Scale Atomic Magnetometers (CSAMs) as a new device for medical applications (Magnetometry atomowe (CSAMs) jako nowe urządzenie DOI:10.15199/ELE-2014-176
(Anna Jodko, Michał Władziński, Tadeusz Pałko)

Electrophysiological phenomena in the human body lead to the occurrence of magnetic field. In medical practice magnetic field associated with currents arising from electrical activity of heart (magnetocardiography) and brain (magnetoencephalography) are analysed. Due to the identical source of magnetographic and electrographic signals, which are the ionic currents flowing through the cardiac muscle fibers or activity of the cerebral cortex neurons, ECG/MCG and EEG/MEG signals contain similar components and their diagnostic value is comparable. However, non-contact measurements of biomagnetic field allow to avoid difficulties associated with the use of electrodes, such as poor electrode contact with the skin, the presence of insulating layers (fat, bones) and varied conductivity of the body tissues. These factors reduce the accuracy of electrographic measurements. One of the specific applications of magnetography are the studies of fetal development. The vernix caseosa surrounding the fetus at the end of the second and in the third trimester of pregnancy has low electrical conductivity, which results in the small amplitude and also small signal to noise ratio of electrographic signal received from the pregnant abdomen. Fetal electrocardiogram (fECG) requires samples averaging, which makes the analysis of many arrhythmias appearing in a single cardiac cycle very difficult [6]. Although it is possible to assess the mechanical activity of fetal heart in echocardiographic studies (vernix caseosa do not significantly affect t... więcej»

Synteza nanowłókna z bionanocelulozy (BNC) DOI:10.15199/ELE-2014-161
(Przemysław Ceynowa, Justyna Wittych, Przemysław Rytczak, Katarzyna Kubiak, Marek Kołodziejczyk, Katarzyna Mitura 1, inż. Sebastian Krzewiński, Kacper Symonowicz, Stanisław Bielecki, Stanisław Mitura)

Elektrospinning jest metodą otrzymywania nanowłókien z płynnego polimeru lub jego roztworu, za pomocą wysokiego napięcia (<10 kV). Polimer pod wpływem prądu elektrycznego przybiera kształt włókna tzw. jetu i przesuwa się w stronę elektrody o przeciwnym ładunku. W naszych badaniach otrzymywaliśmy jednorodne i proste włókna. Mnogość parametrów którymi możemy sterować podczas prowadzonego procesu elektrospinningu umożliwia nam otrzymanie z tego samego materiału wyjściowego nanowłókien o różnych właściwościach. Niezwykłe możliwości pojawiają się poprzez zastosowanie dodatkowej obróbki powierzchni nanowłókien za pomocą technik jonowych [1, 2]. Metody otrzymywania nanowłókien Nanowłóknami nazywamy włókna o bardzo małych średnicach, wynoszących około 50&#8230;500 nm. Charakteryzują się one znaczną długością oraz niewielkim przekrojem poprzecznym, co skutkuje świetnym stosunkiem powierzchni do objętości. Wyróżniamy zarówno włókna pochodzenia naturalnego (np. celuloza, kolagen) jak i te syntetyzowane przez człowieka. Nanorozmiary nadają włókninie całkowicie inne właściwości niż te występujące w klasycznych włóknach. Unikatowe właściwości włókniny takie jak porowatość, duża powierzchnia oraz gęste usieciowienie nici polimerowych umożliwia jej zastosowanie zarówno w medycynie jak i przemyśle. Nanowłókna z bionanocelulozy Bionanoceluloza (BNC) to materiał wytwarzany metodami biotechnologicznymi przy użyciu bakterii Gluconacetobacter ... więcej»

Badanie procesu nanoszenia cienkich warstw węgla otrzymywanych metodą impulsowego magnetronowego rozpylania DOI:10.15199/ELE-2014-167
(WITOLD POSADOWSKI, MACIEJ GRUSZKA)

Warstwy węglowe wzbudzają coraz większe zainteresowanie ze względu na swoje unikalne właściwości elektryczne, mechaniczne, optyczne i inne. Odmiany alotropowe węgla (grafit, fulereny, diament) mogą tworzyć różne formy strukturalne (grafen, warstwy dimentopodobne, nanorurki), a ich potencjalne wykorzystanie otwiera nowe perspektywy w różnych gałęziach przemysłu. Są optymalizowane i poszukiwane nowe technologie otrzymywania warstw na bazie węgla, a dobitnym przykładem polskich osiągnięć na tym polu jest wdrożenie przemysłowe produkcji grafenu w ostatnich miesiącach w ITME Warszawa. Warstwy węglowe są otrzymywane między innymi metodami PVD (np. rozpylanie za pomocą wiązki jonów, z wykorzystaniem układów magnetronowych lub urządzeń działających z wyładowaniem łukowym) oraz metodami CVD (np. PECVD - ang. Plasma Assisted Chemical Vapour Deposition). Jednymi z pierwszych, którzy otrzymali izolacyjne warstwy dimentopodobne, tzw. DLC (ang. Diamond-Like Carbon) byli S. Aisenberg, R. Chabot [1]. Osadzali oni warstwy DLC za pomocą źródła plazmowego (układ dwuelektrodowy - katoda i anoda wykonane z węgla) wytwarzającego jony węgla i argonu. Od tego momentu następuje dynamiczny rozwój technologii warstw dimentopodobnych. W strukturze warstw węglowych występują wiązania sp2 oraz sp3 i w zależności od tego, które dominują, otrzymuje się odpowiednio warstwy grafitowe lub/ i diamentopodobne. Warstwy DLC wykazują niezwykłą twardość, odporność na erozję, ścieranie, przeźroczystość w zakresie światła podczerwonego, obojętność chemiczną. Charakterystyczną cechą procesów otrzymywania warstw DLC, w przeciwieństwie do tradycyjnej technologii wytwarzania diamentów (wysokie ciśnienie i temperatura), jest osadzanie w warunkach obniżonego ciśnienia przy stosunkowo niskich temperaturach, co otwiera nowe możliwości wykorzystywania tych powłok na podłożach nieodpornych termicznie. Zainteresowanie warstwami DLC powoduje, że poszukiw... więcej»

Model kontroli parametrów krytycznych ze względu na bezpieczeństwo przeznaczony dla urządzeń elektroenergetycznych stosowanych w górnictwie DOI:10.15199/ELE-2014-175
(Paweł MICHALSKI)

Urządzenia eksploatowane w kopalniach zagrożonych wybuchem metanu lub pyłu węglowego charakteryzują się szczególnie trudnymi warunkami środowiskowymi podczas pracy. Istnieje więc rzeczywista potrzeba wprowadzenia dodatkowych rozwiązań zwiększających bezpieczeństwo pracy personelu, a także poprawiających ciągłość dostaw energii elektrycznej. Podstawowym celem tej pracy było opracowanie i wbudowanie w istniejące rozwiązanie sterownika polowego dla energetyki górniczej, obwodów kontrolujących parametry krytyczne ze względu na bezpieczeństwo wykonawcze, pomiarowe i sterujące. Urządzenie z tą kategorią obwodów prawdopodobnie zagwarantują dużo wyższy poziom bezpieczeństwa, dzięki automatycznej możliwości informowania personelu o wewnętrznych, wykraczających poza założone przez konstruktorów granice, stanach obwodów krytycznych ze względu na bezpieczeństwo. Określenie parametrów krytycznych, od których zależy bezpieczeństwo W zastosowaniach wykorzystujących budowane przez Instytut Tele- i Radiotechniczny sterowniki polowe ogromną rolę odgrywa bezpieczeństwo. Zależy ono w sposób bezpośredni również od poprawnego funkcjonowania sterowników, dlatego sterowniki wyposażone są w automatyczne programowo - sprzętowe moduły testujące. Pomimo to zdarzają się usterki tych urządzeń powodowane z reguły starzeniem się elementów, bądź ich pracą w zakresie bliskim parametrów maksymalnych. Przed sterownikami zabezpieczeniowymi stawia się ogromne wymagania w szczególności jeśli chodzi o bezpieczeństwo, możliwość pracy w szerokim zakresie wilgotności i bardzo niskich lub bardzo wysokich temperaturach. Typowe warunki pracy dla sterownika zabezpieczeniowego [4] z obwodami iskrobezpiecznymi są podane w tabeli 1. Tab. 1. Typowe warunki pracy dla sterownika zabezpieczeniowego z obwodami iskrobezpiecznymi Tabl. 1. Typical operating conditions for bay controller with intrinsically safe circuits. Temperatura otoczenia podczas pracy -20°C &#8230; +65°C ... więcej»

Wymagania konstrukcyjne dla urządzeń elektroenergetycznej automatyki zabezpieczeniowej zgodnych z postanowieniami dyrektyw WE DOI:10.15199/ELE-2014-174
(Jerzy Chudorliński)

Elektroenergetyczna automatyka zabezpieczeniowa EAZ obejmuje zespół urządzeń przeznaczonych do: kontroli procesów wytwarzania, przesyłania, rozdzielania i użytkowania energii elektrycznej. Odbywa się to poprzez sterowanie aparaturą łączeniową i zabezpieczania elementów systemu elektroenergetycznego. Ważna też jest rejestracja stanów pracy obiektów oraz wizualizacja podstawowych parametrów elektrycznych obiektów systemu. Od tych urządzeń wymaga się wysokiej niezawodności podczas wykonywania zadań w całym okresie eksploatacji, jak i stabilnej pracy niezależnej od czynników środowiska zewnętrznego. Jednym z najważniejszych wymagań jest wybiórczość i czułość działania zabezpieczeń, z wbudowanymi algorytmami automatyki. Pozwala to na selektywne wyłączanie odcinków linii lub obiektów elektroenergetycznych. Automatyka ta powinna zapewniać również bezpieczeństwo personelu obsługującego niezależnie od warunków środowiskowych. Osiąga się to poprzez odpowiednią konstrukcję i instalację zgodną z wymaganiami przepisów prawnych. Dlatego też, urządzenia te powinny być konstruowane zgodnie z aktami normatywnymi dotyczącymi bezpieczeństwa i kompatybilności elektromagnetycznej dla tego typu urządzeń. Aby to osiągnąć urządzenia EAZ powinny być przystosowane do pracy w przemysłowym środowisku elektromagnetycznym, charakteryzującym się dużymi wartościami natężenia prądów i towarzyszących im pól magnetycznych z załączaniem obwodów o dużej indukcyjności i pojemności. Aparatura ta instalowana jest w stacjach elektroenergetycznych i elektrowniach które są typowymi środowiskami przemysłowymi. Urządzenia te typu podlegają ocenie zgodności z dyrektywami niskiego napięcia 2006/95/WE (LVD) i kompatybilności elektromagnetycznej 2004/108/WE (EMC) oraz często z dyrektywą dotyczącą urządzeń i systemów ochronnych przeznaczonych do użytku w przestrzeniach zagrożonych wybuchem 94/9/WE (ATEX). Ostatnio coraz częściej wymagane jest zapewnienie bezpieczeństwa fu... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
System rozpoznawania komend głosowych z zastosowaniem systemu wbudowanego DOI:10.15199/ELE-2014-151
(Paweł Tomasik, Przemysław Barański)

Technologia rozpoznawania mowy znajduje zastosowanie w wielu dziedzinach. Przykładem może być komunikacja osoby niepełnosprawnej z komputerem lub sterowanie wybranymi niekrytycznymi funkcjami w samolocie. Rozpoznawanie mowy zdobywa coraz szersze uznanie w telefonicznych centrach obsługi klienta, gdzie osoba dzwoniąca opisuje swój problem słownie. System automatycznie łączy do odpowiedniego konsultanta [1]. Mimo wielu prowadzonych badań problem rozpoznawania mowy jest problemem otwartym i trudnym o czym może świadczyć projekt Siri, który jest rozwijany od roku 2010 i pochłonął ponad 100 milionów dolarów [2]. W uproszczeniu, z punktu widzenia przetwarzania sygnałów, za wytwarzanie mowy odpowiedzialne są struny głosowe oraz tzw. trakt głosowy [3]. Widmo drgających strun głosowych przedstawiono na rysunku 1. Widmo takie posiada szereg harmonicznych. Pierwsza harmoniczna nazywana jest podstawową częstotliwością tonu krtaniowego. Dźwięk drgających strun głosowych nazywany jest pobudzeniem krtaniowym. W przypadku głosek bezdźwięcznych ("p", "t", "k", "f", "s", "ś", "sz", "c", "ć", "cz", "ch") pobudzenia krtaniowego nie ma. Trakt głosowy pełni rolę filtru modelującego widmo sygnału mowy. Charakterystyka traktu głosowego zależy od ułożenia języka, żuchwy, warg, podniebienia. W wyniku połączenia tonu krtaniowego oraz traktu głosowego otrzymujemy na charakterystyce widmowej cztery skupiska o dużej energii, które nazywamy formantami. Powyższy schemat generacji sygnału mowy nazywany jest również modelem źródło-fil... więcej»

Topologie dławików wejściowych wielogałęziowego przekształtnika DC/DC DOI:10.15199/ELE-2014-148
(Mariusz ZDANOWSKI, Roman BARLIK)

Nieodzownym podzespołem w procesie pozyskiwania energii elektrycznej ze źródeł odnawialnych lub magazynów energii są przekształtniki energoelektroniczne. Zwykle w skład ich topologii wchodzi przekształtnik DC/DC podwyższający napięcie, połączony kaskadowo z jedno- lub trójfazowym falownikiem napięcia, połączonym poprzez dławiki z siecią elektroenergetyczną (lub odbiornikami) o napięciu 230 V/50 Hz lub 3x400 V/50 Hz. W celu uzyskania napięć przemiennych o takich wartościach, napięcie na zaciskach prądu stałego falownika powinno być stabilizowane na poziomie około 400V dla falownika jednofazowego lub około 650V dla falownika trójfazowego. W przypadku coraz popularniejszych instalacji z ogniwami fotowoltaicznymi przekształtnik DC/ DC powinien podwyższać napięcie na jednym z wymienionych poziomów, zapewniając jednocześnie maksymalne wykorzystanie aktualnej wydajności energetycznej fotoogniw poprzez śledzenie punktu maksymalnej mocy (ang. Maximum Power Point Tracking, MPPT), wynikającego z ich charakterystyk prądowo - napięciowych. Skuteczność wykorzystania wydajności energetycznej ogniw zależy nie tylko od zastosowanego (jednego z wielu) algorytmów śledzenia MPPT, ale także od przebiegów wartości chwilowych napięcia i prądu baterii fotowoltaicznej. Szczególnie niekorzystne pod tym względem są tętnienia prądu, które mogą być ograniczone dzięki zastosowaniu przekształtników DC/DC o topologiach wielogałęziowych, zwanych także wielofazowymi [1] - [3]. Częstotliwość prądu wejściowego takich przekształtników i jednocześnie prądu pobieranego z ogniw fotowoltaicznych jest iloczynem częstotliwości przełączeń tranzystorów i liczby gałęzi występujących w przekształtniku DC/DC. W celu redukcji gabarytów i masy przekształtników, zaleca się stosowanie parzystej liczby gałęzi, przy czym w poszczególnych parach gałęzi włączane są dławiki sprzężone magnetycznie [4-7]. W niniejszej pracy przedstawiono analizę możliwości ograniczenia wartości międ... więcej»

Ograniczenie zjawiska pustek w spoinach lutowniczych wykonanych metodą próżniowego lutowania kondensacyjnego DOI:10.15199/ELE-2014-137
(Beata Synkiewicz, Krzysztof Witek, Agata Skwarek)

Podstawowe cechy próżniowego lutowania kondensacyjnego Lutowanie kondensacyjne znane również jako lutowanie w parach nasyconych (ang. Vapor Phase Soldering VPS) wykorzystuje do podgrzania lutowanych elementów energię cieplną par uwolnioną podczas kontaktu z nimi. Pary są wytwarzane przez podgrzanie cieczy o dużej gęstości, która posiada stały punkt wrzenia. Kondensacja par trwa tak długo dopóki element nie osiągnie temperatury par. Ze względu na dużą gęstość par, warstwa ciekłej substancji wypiera tlen z powierzchni elementu. W efekcie tego mamy do czynienia z procesem podgrzewania i lutowania w środowisku pozbawionym tlenu. Przekazywana ilość ciepła jest liniowa w stosunku do dostarczonej energii cieplnej. Po wyjęciu płytek z obszaru grzania, w ciągu kilku sekund następuje odparowanie ciekłej warstwy z modułów, bez osadu, gdyż ciecz jest obojętna. Podstawowe zalety do lutowania w fazie gazowej są następujące: - lutowanie odbywa się w atmosferze beztlenowej, eliminując np. potrzebę stosowania azotu, - gwarantowana jest kontrola maksymalnej temperatury w komorze lutowniczej dzięki własnościom fizycznym zastosowanej cieczy - typowo 230 st. C do lutowania bezołowiowego oraz 200 st. C do lutowania z zastosowaniem spoiw ołowiowych, co skutkuje, także szczególnie dla lutowania bezołowiowego, o wiele węższym "oknem temperaturowym" procesu, - lepszy transfer ciepła dzięki wykorzystaniu do tego celu cieczy zamiast powietrza lub azotu, a w związku z tym brak miejscowych przegrzań, efektu "cienia", a także obojętność na kolor, materiał, objętość i masę lutowanych elementów elektronicznych, - elastyczna i łatwa kontrola temperatury lutowanych elementów o zróżnicowanej pojemności cieplnej aż do osiągnięcia temperatury topnienia, - zmniejszenie pustek (ang. "voids") w spoinach lutowniczych przez zastosowanie w piecu sekcji próżniowej, - ograniczenie ilości wad lutowniczych. Lutowanie elementów w faz... więcej»

Optical spectroscopy of polyazomethine-PCBM nanostructures DOI:10.15199/ELE-2014-144
(Krzysztof P. Korona, Sylwia Grankowska, Agnieszka Iwan, Tatiana Korona, Dorota Rutkowska-Zbik, Maria Kamińska)

For many years scientists work on improvement of solar cell - photovoltaic devices, that convert the radiation of the Sun into electricity. The importance of developing efficient solar cells for providing energy and reducing pollution is obvious. Looking for a cheap material for high-area solar cells, researchers developed cells based on organic polymers. One of the most promising candidates is a mixture of poly(3-hexylthiophene) (P3HT) [1]. However, materials such as P3HT are very sensitive to moisture or to oxygen.An attractive alternative to P3HT could be polyazomethines (PAZ). PAZ, which are conjugated polymers possessing imine bonds (HC=N-), are very promising stable materials. Several groups tried to apply polyazomethines in such devices as OLEDs or organic solar cells [2-4]. The chemical formula of one of the most promising azomethines, 25Th-cardo - based on thiophene and cardo moieties - is drawn in Fig. 1. Conducting conjugated polymers, like azomethine, can be used in bulk heterojunction (BHJ) solar cells. The BHJ solar cells comprise of nanoscale interpenetrating networks of a donor material (in our case PAZ) and an acceptor material. When light creates an exciton in the donor material, it diffuses to the heterojunction and there it dissociates. The electron is transferred to the acceptor and the hole stays in the donor. The separated charges are transported by networks to the electrodes. The most popular acceptor is a fullerene derivative, [6,6]-phenyl-C61 butyric acid methyl ester (PCBM) [5, 6], therefore in our study we used a mixture of polyazomethine and PCBM [7]. Theoretical calculations Theoretical calculations of the electronic spectrum of azomethine were performed by means of time-dependent density functional theory (TD-DFT) with the CAM-B3LYP functional [8] and the def2- QZVP orbital basis set [9]. The G09 program [10] has been used for computing all presen... więcej»

Badanie wpływu temperatury na charakterystyki fotoogniw DOI:10.15199/ELE-2014-145
(Krzysztof Górecki, Ewa Krac)

W ostatnich latach coraz większą uwagę przywiązuje się do odnawialnych źródeł energii. Do tej klasy źródeł należą m.in. systemy fotowoltaiczne (PV) [1-4]. Podstawowym składnikiem tych systemów są ogniwa fotowoltaiczne (fotoogniwa), w których zachodzi konwersja energii promieniowania optycznego, np. słonecznego, na energię elektryczną. Ogniwo fotowoltaiczne zawiera złącze pn, którego właściwości silnie zależą od temperatury [5, 6]. Przewiduje się, że do 2015 roku systemy fotowoltaiczne osiągną sumaryczną moc równą 200 GW, co stanowi podwojenie dzisiejszej mocy wytwarzane w krzemowych systemach PV [7], podczas gdy jeszcze pod koniec 2009 roku całkowita moc "elektrowni słonecznych" na świecie wynosiła tylko 23 GW [8]. Tak duży wzrost produkcji energii przy wykorzystaniu PV jest możliwy przede wszystkim dzięki znaczącemu podniesieniu sprawności poszczególnych ogniw oraz kompletnych systemów PV. Sprawność ogniw produkowanych w latach 40. ubiegłego wieku nie przekraczała 1%, podczas gdy już w 2009 wzrosła ona do 25% [9]. Zgodnie jednak z teorią Shockley-Queissera, maksymalna sprawność prostego krzemowego systemu PV może osiągnąć jedynie 31% [10]. Dodatkowo, na sprawność tę mają ogromny negatywny wpływ połączenia szeregowe poszczególnych ogniw, rozmiary paneli, temperatura otoczenia, zjawisko samonagrzewania [9, 11]. Dlatego wciąż trwają prace mające na celu podniesienie efektywności pracy systemów PV. Przy projektowaniu i analizie układów elektronicznych powszechnie są wykorzystywane programy komputerowe, wśród których jednym z najpopularniejszych jest obecnie program SPICE [12, 13]. Zagadnieniu modelowania systemów fotowoltaicznych za pomocą programu SPICE poświęcone są m.in. prace [11-15]. W pracy [14] przedstawiono sposób modelowania poszczególnych składników systemu fotowoltaicznego - od fotoogniwa, przez moduły fotowoltaiczne, falowniki do akumulatorów. Niestety modele przedstawiane w cytowanej pracy nie uwzględniają wielu i... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Nowoczesne metody sterowania ruchem statku handlowego DOI:10.15199/ELE-2014-092
(Józef Lisowski, Witold Gierusz, Andrzej Łebkowski)

Układy sterowania ruchem statku składają się na system nawigacji technicznej zapewniający dokładne, ekonomiczne i bezpieczne przemieszczanie się jednostki pływającej. Rozróżnia się układy, które realizują: a) stabilizację kursu statku w ruchu prostoliniowym oraz stabilizację prędkości postępowej statku, b) stabilizację prędkości kątowej lub promienia zwrotu przy zmianach kierunku ruchu, c) kompensację kołysań bocznych, d) sterowanie na trajektorii według punktów geograficznych wraz z zapobieganiem kolizjom z innymi statkami, e) sterowanie precyzyjne z małymi prędkościami i dowolnym kątem dryfu, f) dynamiczne utrzymywanie stałego położenia statku względem geograficznego punktu odniesienia (Dynamic Ship Positioning), g) automatyczne cumowanie do boi lub punktu pobierania ładunku z kontrolą naprężenia lin i minimalizacją wpływu zakłóceń zewnętrznych, h) sterowanie położeniem statku kotwiczącego typu FSO, FPSO lub FPDSO (statki używane na akwenach z podmorskimi polami naftowymi do przechowywania i/lub przetwórstwa ropy naftowej, typu FSO (Floating Storage Off- Loading) pełni rolę magazynu, FPSO (Floating Production Storage Off-Loading) także rolę wstępnej przetwórni, FPDSO (Floating Production, Driling Storage Off-Loading) dodatkowo dokonywać wierceń) w celu minimalizacji kołysań i nurzania (rys. 1). W artykule przedstawiono wybrane systemy sterowania oraz metody weryfikacji ich poprawnego działania [1, 2]. Sterowanie precyzyjne ruchem statku w porcie i na podejściach do portu Przemieszczanie statku na ograniczonym akwenie (port, reda, tor wodny, kanał itp.) znacząco odbiega od ruchu jednostek na otwartym morzu. Najważniejsze różnice można scharakteryzować przez: - małe liniowe i kątowe prędkości przemieszczania przy możliwości wystąpienia bardzo dużych kątów dryfu, - brak możliwości uż... więcej»

Elektrolitycza obróbka stali chromowo-niklowej w kontekście stanu powierzchni i ubytku materiału DOI:10.15199/ELE-2014-116
(MICHAŁ KRZYWIECKI, BARBARA KUCHARSKA)

Polerowanie mechaniczne metalu nie zawsze umożliwia uzyskanie odpowiedniej czystości powierzchni. W głębokich rysach technologicznych mogą pozostać zalegające tam obce wtrącenia i zanieczyszczenia. Dodatkowo, warstwa wierzchnia metalu zostaje zdefektowana i wprowadzone zostają do niej naprężenia. Alternatywą dla polerowania mechanicznego jest polerowanie elektrolityczne, które jest z powodzeniem stosowane w wielu gałęziach przemysłu od lotniczego począwszy a na medycznym skończywszy. Elektropolerowanie zmniejsza chropowatość powierzchni oraz usuwa niewielkie uszkodzenia powierzchniowe obrabianego materiału. Na gładkiej powierzchni nie osadzają się zanieczyszczenia, co prowadzi do poprawienia jej odporności korozyjnej [1-4]. Przygotowanie powierzchni elektroobróbką sprzyja poprawie adhezji osadzanych na nich powłok [6]. Polerowanie elektrolityczne jest stosowane również jako technika metalografii w celu ujawniania mikrostruktury materiałów [5]. Współcześnie konstruowane elektropolerki umożliwiają wykonanie zabiegu elektropolerowania lokalnie, na wybranym obszarze powierzchni detalu. Taki sposób elektropolerowania jest bardzo przydatny w kontroli technicznej konstrukcji i dużych urządzeń w miejscu ich ciągłej eksploatacji takich jak np. turbiny czy rurociągi. Dzięki elektropolerowaniu możliwe jest sukcesywne zdejmowanie cienkich warstw metalu bez wprowadzania deformacji struktury, zatem jest ono przydatne do wyznaczania gradientu mikrostruktury oraz naprężeń w detalach w miejscu ich montażu [8]. Obróbka elektrolityczna w zależności od oczekiwanych efektów powierzchni może mieć charakter zarówno polerowania jak i trawienia. Pierwszy z nich polega na intensywnym strawieniu materiału w celu otrzymania wytrawienia o określonej głębokości, w drugim stosuje się niższe napięcie i dłuższy czas (w porównaniu z elektropolerowaniem) w celu wygładzenia powierzchni i ujawnienia mikrostruktury. Odpowiedni dobór parametrów polerowania i tr... więcej»

Mikrostruktura i własności mechaniczne miedzi i jej stopów wygrzanych oporowo DOI:10.15199/ELE-2014-119
(Mariola Spalik, Barbara Kucharska, Michał Krzywiecki)

Miedź, jak i jej stopy, posiadają wiele zalet dzięki którym jest możliwe ich szerokie zastosowanie w większości gałęziach przemysłu. Najważniejsze spośród nich to bardzo dobra przewodność elektryczna i cieplna, odporność na korozję atmosferyczną i w wodzie morskiej, możliwość obróbki mechanicznej i cieplnej, dobra ciągliwość i wytrzymałość [1, 2]. Istotnym dla wszechstronnych zastosowań jest ponadto możliwość łączenia tych stopów w procesach lutowania i spawania oraz ich diamagnetyzm [3, 4]. Właściwości miedzi i jej stopów, w tym przewodnictwo elektryczne i rezystywność, są w ścisłym związku z ich składem chemicznym i umocnieniem [5, 6]. Umocnienie z kolei zależy od stanu struktury, np. stopnia dyspersji faz i deformacji mikrostruktury spowodowanych warunkami wytworzenia [7, 8]. Zabiegi montażowe takie jak np. lutowanie, ale również warunki eksploatacyjne, mogą powodować zmiany mikrostruktury wyrobów metalowych a co za tym idzie ich właściwości mechaniczne i fizyczne. Przykład takich zmian mikrostruktury przedstawiono na ry... więcej»

Wybrane zagadnienia pomiarów zaburzeń na statkach morskich DOI:10.15199/ELE-2014-094
(Karol Korcz, Beata Pałczyńska, Ludwik Spiralski)

Występowanie silnych, zakłócających pól elektromagnetycznych w środowisku statku morskiego może w sposób bezpośredni wpływać na niezawodność okrętowych urządzeń oraz systemów elektrycznych i elektronicznych. Jest również nieobojętne dla bezpieczeństwa ludzi przebywających w pobliżu silnych źródeł tych pól. Dlatego też problematyka związana z pomiarami zakłóceń i kompatybilnością elektromagnetyczną na statkach morskich jest tak istotna. Efektem pracy zespołu badawczego jest zaprojektowanie komputerowego systemu do pomiaru przede wszystkim pola elektromagnetycznego w zakresie małych częstotliwości, a także badania zaburzeń odbiornika radiokomunikacyjnego. System pracuje w zintegrowanym środowisku programowania LabVIEW, w którym wirtualne przyrządy pomiarowe oprogramowane są z wykorzystaniem opracowanych, autorskich procedur [1-3]. Komputerowy system pomiarowy W schemacie funkcjonalnym systemu pomiarowego można wyróżnić dwie główne części (rys. 1): - sprzętową (czujniki i układy kondycjonowania sygnału, blok akwizycji danych pomiarowych z kartą pomiarową, źródło sygnału testowego), - programową (blok przetwarzania i analizy danych, blok interfejsu graficznego). System umożliwia pomiar charakterystyk zakłóceń małoczęstotliwościowych w sieciach zasilania, urządzeniach i systemach energoelektronicznych, elektronicznych, w tym urządzeniach radiokomunikacyjnych a także pomiar wolnozmiennego pola elektromagnetycznego [4, 5]. Badania wolnozmiennego pola elektromagnetycznego Za pomocą zaprezentowanego systemu pomiarowego dokonano oceny poziomu, w tym emisji pola elektromagnetycznego w odniesieniu do dopuszczalnych wartości zawartych w... więcej»

Technologia i charakteryzacja struktury p-i-n na bazie InGaAsN do zastosowania w ogniwie tandemowym InGaAsN/GaAs DOI:10.15199/ELE-2014-102
(Wojciech Dawidowski, Beata Ściana, Iwona Zborowska-Lindert, Miroslav Mikolášek, Damian Pucicki, Damian Radziewicz, Katarzyna Bielak, Mikołaj Badura, Jaroslav Kováč, Marek Tłaczała )

Sprawność konwersji jednozłączowych, półprzewodnikowych ogniw słonecznych ograniczona jest tzw. limitem Shockleya- Queissera do 33,7% [1, 2]. Rozwiazaniami pozwalającymi na przekroczenie tego limitu są: zastosowanie struktur o obniżonej wymiarowości (studnie i kropki kwantowe) w obszarze czynnym ogniwa, wytworzenie ogniwa wielozłączowego oraz zastosowanie skoncentrowanego promieniowania słonecznego [3]. Materiał na ogniwo o wysokiej sprawności powinien spełniać szereg wymagań, takich jak prosta struktura przejść optycznych, wysoka wartość współczynnika absorpcji oraz opanowana i powtarzalna metoda otrzymywania struktur o określonych parametrach. Półprzewodniki AIII-BV doskonale realizują kryteria stawiane materiałom na wysokowydajne ogniwa tandemowe. Technologia podogniwa p-i-n wytworzonego z InGaAsN Ogniwo słoneczne typu p-i-n wytworzone zostało metodą epitaksji z fazy gazowej z wykorzystaniem związków metaloorganicznych, przy ciśnieniu atmosferycznym (AP-MOVPE). Szczegóły dotyczące wzrostu heterostruktury InGaAsN/GaAs opisano w pracy [4]. Obszar aktywny ogniwa (zaznaczony kolorem szarym na rys. 1) stanowi niedomieszkowana warstwa InGaAsN umiejscowiona pomiędzy buforem z GaAs domieszkowanym krzemem oraz warstwą InGaAsN domieszkowaną cynkiem. Parametry elektryczne i op... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Planowanie współpracy elektrowni wiatrowych i solarnych z systemem elektroenergetycznym przy zastosowaniu podejścia ewolucyjnego DOI:10.15199/ELE-2014-090
(Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)

Różnorodne techniki obliczeniowe rozwijane w ramach badań nad sztucznymi systemami ewolucyjnymi są obecnie coraz powszechniej wykorzystywane do rozwiązywania trudnych i nietypowych zagadnień optymalizacyjnych, ze szczególnym uwzględnieniem problemów wielokryterialnych o dynamicznie zmieniających się uwarunkowaniach [5]. Do rozważanych technik obliczeniowych zalicza się różnego rodzaju algorytmy genetyczne, strategie ewolucyjne oraz metody programowania genetycznego i ewolucyjnego [6-9]. Przykładem zagadnienia optymalizacyjnego, w przypadku którego nader chętnie sięga się po wymienione techniki obliczeniowe, jest planowanie produkcji energii elektrycznej w systemie elektroenergetycznym [4]. Każdy system elektroenergetyczny jest obiektem technicznym o bardzo dużej skali złożoności, w skład którego wchodzą różnego typu urządzenia generujące energie elektryczną, elektroenergetyczne linie przesyłowe wysokich napięć, stacje transformatorowo-rozdzielcze oraz wszelkiego rodzaju odbiorniki energii elektrycznej [3]. Klasycznym zagadnieniem optymalizacyjnym rozpatrywanym w ramach szeroko pojętej analizy systemów elektroenergetycznych jest ekonomiczny rozdział obciążeń pomiędzy poszczególne bloki energetyczne elektrowni cieplnych [1]. W zagadnieniu tym chodzi o wyznaczenie takiego sposób rozdziału generowanej mocy pomiędzy poszczególne jednostki wytwórcze, aby całkowita masa paliw kopalnych spalonych w jednostce czasu we wszystkich pracujących blokach elektrowni cieplnych była możliwie jak najniższa, oczywiście przy zachowaniu wszelkich ograniczeń wynikających ze specyfiki pracy systemu elektroenergetycznego i konieczności zapewnienia ciągłości dostaw energii elektrycznej o odpowiedniej jakości [2]. Wykorzystanie odnawialnych źródeł energii elektrycznej Obecnie w dziedzinie elektroenergetyki obserwuje się systematycznie wzrastającą rolę odnawialnych źródeł energii elektrycznej [1]. Do klasycznych tego rodzaju sposobów pozyskiwania ene... więcej»

System SKF 11 do kontroli jakości filtrów przeciwzakłóceniowych DOI:10.15199/ELE-2014-051
(Marcin Karliński, Włodzimierz Mocny, Janusz Wójcik, Jerzy Zając&#8201;)

Kontrola jakości produktów nie ogranicza się do sprawdzenia jakości wyrobów, ale oczekuje się także, że dostarczy ona producentowi informacji zwrotnych związanych z jakością i efektami działań produkcyjnych. Procesy pomiarowe prowadzone w różnych etapach produkcji są głównym źródłem informacji o jakości. Producenci oczekują także, że pomiary zostaną powiązane z automatyzacją operacji, transportem międzyoperacyjnym wyrobów, segregacją dobry/wadliwy, znakowaniem, archiwizacją wyników pomiarów itp. [3, 7, 8]. Wraz ze zmniejszaniem zaangażowania personelu w krytyczne operacje produkcyjne rośnie powtarzalność uzyskiwanych rezultatów, a liczba błędów maleje. Łatwiejsze jest także uzyskanie formalnej zgodności procesu kontroli jakości z zasadami systemów zapewnienia jakości (np. ISO 9001) [5]. Rezultatem takich wymagań jest znaczny koszt i złożoność systemów, ale jest to kompensowane przez wysoką wydajność systemu i niskie koszty jednostkowe operacji pomiarowych. We wcześniejszych publikacjach [3, 4, 10] przedstawiono wymagania stawiane produkcyjnym systemom kontroli jakości oraz wybrane rozwiązania zastosowane w systemie kontroli jakości filtrów przeciwzakłóceniowych SKF 06 opracowanym w Przemysłowym Instytucie Elektroniki. Podobne wymagania musiał spełniać także wcześniej opisywany system kontroli kondensatorów przeciwzakłóceniowych [6]. Po kilku latach, z inicjatywy producenta filtrów, ten sam zespół podjął opracowanie nowego, podobnego systemu do kontroli jakości filtrów oznaczonego SKF 11. W systemie tym wykorzystano wcześniejsze doświadczenia i wprowadzono nowe rozwiązania usprawniające dostrzeżone niedoskonałości poprzednika. Zwiększono możliwości produkcyjne producenta filtrów i poprawiono jego pozycję konkurencyjną dzięki obniżeniu kosztów i podniesieniu jakości produkcji. Nowy system wymagał uwzględnienia następujących okoliczności: 1) Wprowadzenie do produkcji nowych typów filtrów w nowych obudowach, 2) Zwiększenie wy... więcej»

Efektywność środowiskowa produktów, a możliwości oceny cyklu życia płytek obwodów drukowanych z użyciem internetowego narzędzia "LCA to go" DOI:10.15199/ELE-2014-047
(Janusz Sitek, Marek Kościelski)

Efektywność środowiskowa produktów - wprowadzenie Od szeregu lat obserwowany jest wzrost działań pro-ekologicznych w wymiarze globalnym [1, 2], jak i na terenie Unii Europejskiej [3-5], który w ostatnim czasie uległ znaczącemu przyspieszeniu. Związane jest to z realizacją celu Unii Europejskiej oraz jej państw członkowskich, jakim jest stworzenie konkurencyjnej gospodarki, która efektywnie wykorzystuje ograniczone zasoby środowiska. W związku z tym podejmowane są działania, których celem jest eliminowanie produktów o negatywnym wpływie na środowisko i wspieranie rynku produktów ekologicznych [6]. Jednym z przykładów działań w tym zakresie jest opublikowane 5 maja 2013 roku przez Komisję Europejską "Zalecenie w sprawie stosowania wspólnych metod pomiaru efektywności środowiskowej w cyklu życia produktów i organizacji oraz informowania o niej" [7]. Planuje się, że przyszłe regulacje dotyczące zamówień publicznych w Unii Europejskiej mogą definiować ofertę najkorzystniejszą ekonomicznie nie tylko, jako ofertę o najniższej cenie, ale również ofertę najkorzystniejszą biorąc pod uwagę rachunek kosztów cyklu życia LCA (ang. Life-Cycle Assessment). W przyszłości planowane jest wykorzystanie metodyki pomiaru efektywności środowiskowej w konstrukcji instrumentów dotyczących wspierania poszczególnych przedsiębiorstw i branż, jak również uzależnienie wysokość ewentualnej pomocy od poziomu efektywności środowiskowej dóbr produkowanych przez poszczególnych przedsiębiorców. Coraz bardziej prawdopodobne jest również różnicowanie stawek podatkowych w zależności od wyniku analizy środowiskowej [7]. Dlatego znajomość tematyki oceny efektywności środowiskowej produktów w ich cyklu życia staje się coraz bardziej ważna dla pozycji konkurencyjnej danego produktu oraz firmy. Istotnym problemem przy ocenie i prezentacji efektywności środowiskowej produktów jest wybór metod jej oceny, wskaźników ją opisujących oraz sposobu prezentacji ekologiczności ... więcej»

Wymagania konstrukcyjne dotyczące spełnienia wymagań kompatybilności elektromagnetycznej dla urządzeń elektroenergetycznej automatyki zabezpieczeniowej DOI:10.15199/ELE-2014-073
(Jerzy Chudorliński, Paweł Michalski, Piotr Prystupiuk)

Kompatybilność elektromagnetyczna Istotną sprawą kompatybilności elektromagnetycznej jest zdolność urządzeń elektrycznych lub elektronicznych do poprawnej pracy w określonym środowisku elektromagnetycznym przez osiągnięcie odpowiedniego poziomu odporności oraz ograniczenie emisji zaburzeń, które mogą zakłócić inne pracujące urządzenia. Przez zaburzenie elektromagnetyczne należy rozumieć każde zjawisko elektryczne, które może pogorszyć działanie urządzenia. Odporność jest zdolnością urządzenia do prawidłowego działania, bez pogarszania jakości, w obecności zakłócenia elektromagnetycznego. Obowiązek ograniczenia zaburzeń oraz uodpornienie na nie nakazuje obowiązująca dyrektywa 2004/108/WE "Kompatybilność elektromagnetyczna (EMC)". Poziomy emisji zaburzeń, jak i odporności na zaburzenia zostały określone w normach PN-EN 50263:2004 [1] i PN-EN 60255- 26:2013 [2]. Urządzenia EAZ są wyposażone w wejścia: pomiarowe, dwustanowe, zasilające oraz wyjścia przekaźnikowe, i obwody transmisji które nazywane są portami. Szczególną rolę odgrywa obudowa, zwykle metalowa, z zaciskiem uziemiającym zwana portem obudowy. Emisja zaburzeń ma miejsce poprzez obudowę, jak i poprzez port zasilający. Procedura badań i kryteria akceptacji dotyczące emisji zostały podane w normach (PN-EN 60255-25 [3] i PN-EN 55022). Odporność na zaburzenia dotyczy wszystkich portów dostępnych w urządzeniu, łącznie z obudową i przewodem uziemiającym. Źródła zaburzeń EMC dla urządzeń EAZ [5] Urządzenia elektryczne, nawet podczas normalnej pracy oraz zjawiska naturalne związane np. z wyładowaniami występującymi podczas burz, lub związane z wyładowaniami elektrostatycznymi zawsze wytwarzają zaburzenia elektromagnetyczne. Powinno się dążyć do zminimalizowania zaburzeń emitowanych przez źródła, aby nie przekraczać poziomu dopuszczonego dla innych urządzeń. Źródłami zaburzeń elektromagnetycznych dla urządzeń EAZ są [5]: ... więcej»

Układy pomiarowe w urządzeniach towarzyszących DOI:10.15199/ELE-2014-064
(Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)

Podstawowym wymaganiem stawianym urządzeniom pracującym w przestrzeniach zagrożonych wybuchem jest iskrobezpieczeństwo. Jest ono definiowane jako rodzaj zabezpieczenia przeciwwybuchowego polegającego na ograniczeniu energii elektrycznej w obwodach mających kontakt z atmosferą wybuchową do poziomu poniżej energii zapłonu - zarówno w wyniku iskrzenia jak i nagrzewania się. Urządzenia towarzyszące należą do grupy takich urządzeń, które zawierają zarówno obwody iskrobezpieczne jak i nieiskrobezpieczne. Musi być ono skonstruowane w taki sposób, aby obwody, w których energia nie jest ograniczona nie mogły oddziaływać niekorzystnie na obwody o ograniczonej energii. Urządzenia towarzyszące mogą być instalowane w obudowach ognioszczelnych, zaś okablowanie przyłączane do obwodów iskrobezpiecznych tych urządzeń przechodzić do stref zagrożonych wybuchem. Urządzenia towarzyszące zbudowane są z trzech stref obwodów przedstawionych na rysunku 1: obwodu nieiskrobezpiecznego, nieiskrobezpiecznej części obwodu iskrobezpiecznego i obwodu iskrobezpiecznego. Przy projektowaniu urządzenia, a w szczególności jego układów pomiarowych należy zadbać o to, aby pomiędzy strefą nieiskrobezpieczną a strefą nieiskrobezpiecznej części obwodu iskrobezpiecznego zachować separację galwaniczną. Elementy oddzielające galwanicznie powinny być zgodne z konstrukcjami dopuszczonymi w normach [1, 2] i zachować parametry pracy zgodnie z tymi normami. Specyficzną grupą urządzeń towarzyszących stanowią sterowniki zabezpieczające z ... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych DOI:10.15199/ELE-2014-039
(Tomasz Kraszewski)

Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Narodowa Inicjatywa Fotoniki DOI:10.15199/ELE-2014-044
(Ryszard S. Romaniuk)

Szybki rozwój zaawansowanych technologii - a taką jest fotonika, i utrzymanie konkurencyjnej pozycji na rynku globalnym, wymaga inicjatyw globalnych w postaci planowania i realizacji bardzo dużych programów badawczych i przemysłowych, obecnie na poziomie miliardów lub dziesiątków miliardów euro. Fotonika nieodwracalnie zastępuje klasyczne metody produkcji. Mechaniczne metody obróbki w wielu sektorach przemysłów wytwórczych ustępują addytywnym metodom fotonicznym. Oświetlenie klasyczne zastępowane jest na masową skalę fotonicznym. Klasyczne radary ustąpią, wcześniej czy później, radarom optycznym. Konieczne jest szkolenie kadr do wdrażania nowych technologii fotonicznych oraz przekonanie społeczeństwa do zmian, w warunkach wzmacniającej się konkurencji globalnej. Nagrodą dla prymusa technologii jest, w dzisiejszych czasach otwartego informacyjnego społeczeństwa internetowego, szybkie opanowanie rynku globalnego, osiągnięcie największych zysków, a także możliwość narzucenia swoich standardów, a więc uzyskanie trwalszych efektów. Jak to zrobić? Częściowo na to pytanie stara się odpowiedzieć Narodowa Inicjatywa Fotoniki NPI . Sponsorami Narodowej Inicjatywy Fotoniki są dwa największe światowe zawodowe organizacje fotoniczne: Optical Society of America - OSA, oraz International Society for Optics and Photonics - SPIE . "Fotonizacja społeczeństwa" Przez "fotonizację społeczeństwa" rozumiane są ściśle skorelowane, globalne działania edukacyjne, szkoleniowe, naukowo-techniczne, organizacyjne, gospodarcze, ekonomiczne, polityczne, a także rozpowszechniające i społeczne, a nawet psychologiczne. Amerykańska masywna inicjatywa "fotonizacji społeczeństwa" nosi nazwę NPI - National Photonics Initiative [1]. Celem inicjatywy podjętej wspólnie w USA przez szereg organizacji społecznych, naukowotechnicznych [2-6], gospodarczych, biznesowych, a także rządowych jest: "Lighting the Path to a Competitive, Secure Future". Głównie gospodarcza ... więcej»

Relacyjna baza danych przechowująca dane z doświadczeń związanych z ochroną roślin - proces projektowania DOI:10.15199/ELE-2014-045
(Małgorzata Tartanus, Tadeusz Antczak )

We współczesnym świecie, zdominowanym przez olbrzymią ilość różnorodnych informacji, nie sposób sobie wyobrazić efektywnego funkcjonowania człowieka bez możliwości i udogodnień, jakie oferują bazy danych. Obecnie człowiek spotyka się na co dzień z tak dużą ilością i różnorodnością informacji, iż trudno byłoby mu je wszystkie zapamiętać, a w konsekwencji mógłby łatwo się pogubić w ich efektywnym wykorzystaniu dla swoich potrzeb. Praktycznie każdy rodzaj informacji, z jakim ma do czynienia człowiek w swoim środowisku, daje się przechowywać w bazach danych. Dlatego bazy danych stały się nieodzownym narzędziem w przechowywaniu informacji, a następnie ich przetwarzaniu, zgodnie z potrzebami współczesnych ludzi. Bazę danych można zdefiniować m.in. jako model pewnego wycinka świata rzeczywistego (niekoniecznie istniejącego fizycznie lub też takiego, który nigdy fizycznie nie istniał), który jest przedmiotem zainteresowania przyszłych użytkowników. Takim fragmentem rzeczywistości, który może być zamodelowany przy wykorzystaniu baz danych, jest rolnictwo, a dokładniej, jego poszczególne działy, w tym choćby badania i doświadczenia naukowe prowadzone w tym obszarze aktywności współczesnego człowieka. W literaturze można znaleźć przykłady aplikacji bazodanowych wspomagających producentów płodów rolnych w ich codziennej pracy [6, 4, 8], a także wyniki badań dotyczących różnych aspektów związanych z produkcją rolną [9], które dotyczą możliwości wykorzystania baz danych w tym obszarze badań naukowych. Systemy gromadzenia danych o sprzedaży i zużyciu środków ochrony roślin są podstawą krajowych strategii zrównoważonego stosowania środków ochrony roślin [5]. Aktualnie trudno wyobrazić sobie produkcję płodów rolnych bez stosowania środków ochrony roślin. Celem niniejszych rozważań jest przedstawienie relacyjnej bazy danych "Archiwum dokumentów", która usprawnia prowadzenie badań i doświadczeń naukowych związanych z ochroną roślin. Jej głó... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej DOI:10.15199/ELE-2014-035
(Michał Łabowski, Piotr Kaniewski)

Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Demonstrator radaru szumowego z interferometrycznym pomiarem kierunku DOI:10.15199/ELE-2014-024
(Paweł Roszkowski, Mateusz Malanowski)

Radary szumowe (ang. noise radars) są to radary wykorzystujące sygnał szumowy, losowy lub chaotyczny do oświetlania obserwowanych obiektów oraz przetwarzanie korelacyjne powracającego echa dla optymalnej filtracji i detekcji sygnału radiolokacyjnego. Zainteresowanie takiego typu radarami występuje głównie w aplikacjach militarnych ze względu na ich niskie prawdopodobieństwo przechwycenia LPI (ang. Low-Probability-of-Interception), dobrą kompatybilność elektromagnetyczną - EMC (ang. ElectroMagnetic Compatibility) oraz możliwości utajonego operowania na nieprzyjaznym terenie - tzw. koncepcja Stealth Radar. Radar szumowy posiada bardzo dobre możliwości detekcyjne obiektów z uwagi na brak niejednoznaczności pomiaru odległości ani prędkości bistatycznych obiektów, zachowując wysoką rozróżnialność i dokładność pomiaru. W artykule przedstawiono radar szumowy z falą ciągłą (istnieją także radary szumowe impulsowe), w którym zastosowano oddzielne anteny dla nadawania i odbioru, dzięki czemu nie jest potrzebna skomplikowana aparatura do przełączania nadawanie/odbiór. Gdy odseparujemy o pewną odległość antenę nadawczą i odbiorczą powstaje konfiguracja radaru bistatycznego (w odróżnieniu od konfiguracji monostatycznej w której anteny odbiorca i nadawcza znajdują się w tym samym miejscu). Przykładową geometrię bistatyczną w przygotowanym scenariuszu testowym przedstawia rys. 1. Radar w konfiguracji bistatycznej posiada wiele korzyści wynikających z geometrii, które stwarzają potencjalne możliwości detekcji obiektów typu stealth [3]. Związane jest to ze zwiększaniem się prawdopodobieństwo ustawienia się wybranych elementów obiektu prostopadle do siecznej kąta pomiędzy kierunkiem padania fali oświetlającej i kierunkiem na odbiornik radaru. Wykorzystanie geometrii bistatycznej ogranicza również kontrolę charakterystyki odbicia obiektu poprzez kształtowanie powierzchni i planowanie misji, tak by stać się niewidzialnym dla radaru aktywnego... więcej»

Using the hyperbolic algebra for efficient analysis of nonlinear switched dynamical circuits DOI:10.15199/ELE-2014-021
(Zdzisław Trzaska )

Nonlinear dynamical systems of various natures (electrical, chemical, biological, mechanical, astrophysical, etc.) quite often exhibit complex dynamical behavior and undergo bifurcations when one or more parameters change. Such complex behavior requires new mathematical tools that better describe properties of the dynamic processes and systems [1-3]. Overall, it is known that the non-smooth signals can make investigations quite drudging. Analyses of oscillations with essentially unharmonic, non-smooth or maybe discontinuous time shapes are especially diffcult. This is caused by the fact that the methods for nonlinear dynamic systems were originally developed within the paradigm of smooth oscillations based on the classical theory of differential equations, usually avoiding non-differentiable and discontinuous functions. Over the last three decades, a general interest in developing tools to incorporate the non-smooth and discontinuous signals has grown significantly. Presently, many theoretical and applied areas of dynamical systems and processes cover high-energy phenomena accompanied by highly non-linear spatio-temporal behavior, making the classical smooth methods inefficient in almost all cases [4-6]. The main purpose of this paper is to show a uniform basis suitable for analyses of non-harmonic shape oscillations resulting from the non-smooth or discontinuous excitations. The tool presented in this work employs a non-smooth approach as an efficient mean to analyze nonlinear dynamical switching circuits. The approach is built on the idea of non-smooth time transformation (NSTT) proposed originally for nonlinear and smooth models [7-9]. The NSTT is based on the explicit links between the hyperbolic algebra and impact dynamics, an approach analogous to the conventional complex number analysis and harmonic oscillatory processes [10-13]. Therefore, it is expected that the hyperbolic algebra and hyperbolic numbers can overcom... więcej»

Zatrzaskiwanie się pasożytniczego tyrystora i szybkie zatrzaskiwanie się pasożytniczego tyrystora DOI:10.15199/ELE-2014-030
(Bartłomiej Półtorak, Jacek Szatkowski )

W komercyjnie dostępnych układach scalonym (np. wzmacniaczu operacyjnym, mikroprocesorze) znajduje się więcej tranzystorów i diod niż niezbędna ilość do wykonywania podstawowych funkcji danego urządzenia. Te dodatkowe elementy półprzewodnikowe (np. diody poziomujące) na wejściu i wyjściu układu scalonego są niezbędne do zapewnienia prawidłowego działania układu scalonego w żądanych warunkach. Diody poziomujące zabezpieczają przed przepięciami jak i zniekształceniami sygnałów. Używane są również inne bardziej złożone elementy półprzewodnikowe, które zabezpieczają przed uszkodzeniem układów scalonych przez wyładowaniami elektrostatycznymi. Pochodzenie takich impulsów może mieć różne źródła. Aby ułatwić charakteryzację poszczególnych źródeł zagrożenia wyróżniono trzy podstawowe modele: - model ciała ludzkiego- Kondensator o pojemności 100 pF jest ładowany do wysokiego napięcia (od 200 V do 8 kV) a następnie jest rozładowywany przez rezystor 1,5 k&#937; i obciążany element. Na rys. 1 jest przedstawiony schemat modelu ciała ludzkiego i kształt impulsu, jaki generuje dany model. Długość impulsu osiąga wartość kilku dziesiątych mikrosekundy a wysokość impulsu prądowego nie - model naładowanego urządzenia- polega na zastąpieniu naładowanego elementu scalonego układem zbudowanym z kondensatora (1-20 pF) rozładowywanego przez rezystor o pojemności 1 &#937;. Uzyskiwane tą metodą impulsy mają czas trwania około 2ns i wysokość większą niż 2 A. Na rysunku trzecim (rys. 3) został przedstawiony model naładowanego urządzenia. Rys. 1. a) model ciała ludzkiego rozładowywany poprzez rezystor 1,5 ... więcej»

Słowo Prezesa SEP na ŚDTiSI 2014 - XV KOS - Konferencja Okrągłego Stołu "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej"
Szanowni Państwo, Mam zaszczyt powitać Państwa na jubileuszowej XV Konferencji Okrągłego Stołu zatytułowanej "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej, na bazie szerokopasmowego dostępu do Internetu", objętej patronatem honorowym Pani Ewy Kopacz - Marszałek Sejmu RP. Konferencja ta stanowi kulminacyjny moment tegorocznych obchodów Światowego Dnia Telekomunikacji i Społeczeństwa Informacyjnego zorganizowanych przez Stowarzyszenie Elektryków Polskich i Polskie Towarzystwo Informatyczne. Obchody te zostały objęte patronatem honorowym Prezydenta Rzeczypospo... więcej»

Wykorzystanie sensorów radiowych w procesie lokalizacji emiterów DOI:10.15199/ELE-2014-022
(Grzegorz Czopik, Tomasz Kraszewski)

Przedsięwzięcie związane z budową rozproszonego systemu lokalizacji aktywnych emiterów radiowych było już sygnalizowane na łamach Elektroniki [1, 2]. W niniejszym artykule przedstawiono całość projektu ze szczególnym uwzględnieniem sensora radiowego i jego parametrów. Jako podstawowy element służący do budowy systemu, musiał zostać przebadany pod kątem parametrów, które uznano za najważniejsze ze względu na realizowane zadania. W systemie opracowanym w ramach projektu wykorzystano 5 urządzeń odbiorczych N6841A (RF Sensor) firmy Agilent [3] (rysunek 1). Są to szerokopasmowe odbiorniki pracujące w zakresie częstotliwości od 20 MHz do 6 GHz. Posiadają one dwa kluczowane wejścia sygnałowe RF, co pozwala na jednoczesne podłączenie dwóch anten. Odebrane i przechwycone dane mogą zostać zapisane w buforze wewnętrznym.Dużą precyzję synchronizacji pomiarów oraz oznaczanie danych pomiarowych sygnaturami czasowymi zapewnia wbudowany odbiornik GPS wraz z aktywną anteną. Sterowanie urządzeniem oraz odbiór danych w postaci ciągłego strumienia danych odbywa się z wykorzystaniem uniwersalnej magistrali sieciowej z wykorzystaniem protokołu TCP/IP [3]. Schemat blokowy wewnętrznej struktury odbiornika przedstawiony został na rysunku 2. Urządzenie pracuje tylko i wyłącznie pod kontrolą specjalizowanych aplikacji programowych definiowanych przez użytkownika. Zestaw wbudowanych w urządzenie elementarnych funkcji sterujących nakierowany jest na monitorowanie widma i detekcję sygnałów obecnych w kontrolowanej przez moduły N6841A przestrzeni. Potencjalny zakres zastosowań urząElektronika 5/2014 43 Rys. 3. Pomiar czułości stycznej - układ pomiarowy Fig. 3. The measurement of the tangential sensitivity Czułosc styczna -118 -116 -114 -112 -11... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Global-extreme-training of specific neural networks to find laws ruling empirical data DOI:10.15199/ELE-2014-008
(JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)

A need to create symbolic descriptions of unknown laws governing a given set of empirical data and to model the data set features is encountered in many situations and concerns plenty of physical systems. First papers on applying particular neural networks with exp(.) and ln(.) activation functions to solve the problem under consideration ware reported in [1-8]. Recently, specific networks with reciprocal-function activation-operators have been proposed in [9], [10]. Such networks allow us to describe the data set behavior be means of rational or polynomial functions, where the latter can be regarded as a particular case of the rational one. Coefficients of the rational or polynomial functions are determined in a way of training the specific neural network. As compared to the previously presented networks, the reciprocal-function-based ones lead to simpler network structures, include a lower number of the network elements and enable more effective network learning. Despite the introduced improvements, learning the networks is still a problem, [11], [12], and we devote plenty of time to make progress in this field. Improving the training technique is the goal of our research and this is the issue to be presented in this paper. Learning problems connected with gradient calculations Neural network learning can be realized in a variety of ways [11-12]. There are methods that are good in finding global optimum and can effectively omit local extremes. Another group is made by techniques which are fast and well suited for local area operations. Ability to generalize the data set behavior outside the range of the training variables is another required feature of the learning methods. For example, so called gradient descent (GD) techniques, where gradient of an objective function is calculated, often fail in case of very large networks [12]. From our experience results that learning the networks under consideration by means of the GD... więcej»

Detekcja aktywności istot żywych ukrytych za ścianą DOI:10.15199/ELE-2014-014
(Waldemar SUSEK, Bronisław STEC, Mirosław CZYŻEWSKI, Czesław REĆKO, Adam SŁOWIK)

Współczesne warunki stawiają wysokie wymagania systemom radioelektronicznym. Pojawia się całe spektrum zastosowań, zarówno w ramach systemów wojskowych i specjalnych, jak i całkowicie cywilnych, komercyjnych. Zagrożenia terrorystyczne i inne podobnego typu sytuacje kryzysowe stwarzają zapotrzebowanie na systemy wykrywania i przeciwdziałania różnorodnym zagrożeniom terrorystycznym, lub innym, stwarzającym zagrożenie dla osób lub instytucji państwowych. Często też systemy takie wspierają działania służb ratowniczych, poszukiwawczych, lub też służą celom ściśle komercyjnym. Do niedawna radary szumowe, ze względu na niestabilność źródeł sygnału oraz konieczność stosowania specyficznych rozwiązań przy ich konstrukcji, nie były zbyt powszechne. Ostatnio, ze względu na specyficzne cechy, obserwuje się coraz większą liczbę aplikacji z ich wykorzystaniem, zarówno specjalnych, jak i komercyjnych. Cechy sygnałów szumowych są znane od kilkudziesięciu lat, jednak problem z ich generacją i zapewnienia stabilności parametrów sygnału nastręczał wiele problemów. Również odbiór tego typu sygnałów i związana z nim specyfika przetwarzania, powodowały, że konstrukcje miały charakter eksperymentalny [2-4]. Zadaniem lokalizatora jest wykrycie osób, przebywających za przesłonami niemetalowymi, w praktyce są to najczęściej: drewniana lub murowana ściana, okno, drzwi, lub inne podobne przesłony. Ściana murowana lub inna, wzmocniona prętami metalowymi, może być przejrzysta dla fal radiowych, jeżeli użebrowanie jest niezbyt gęste. Ścisłe określenie tego problemu wymaga niezależnych badań. Drugim istotnym problemem przy pracy takiego radaru jest odróżnienie obiektów stałych, takich jak: krzesło, biurko, szafa lub inne przedmioty od odbicia i wyróżnienia, jakie dają istoty żywe, w tym także człowiek. Spełnienie powyższych wymagań można uzyskać stosując do wyróżniania obiektów odbiornik korelacyjny, współpracujący z sygnałem szumowym [5]. Budowa lokalizat... więcej»

A method for identifi cation of static and dynamic characteristics of a non-zero chirp Mach-Zehnder optical intensity modulator for application in OOK fi ber optic communication line DOI:10.15199/ELE-2014-006
(ZBIGNIEW LACH)

Performance parameters of an On-Off-Keying (OOK) fi ber optic communication line: chromatic dispersion, parameters of polarization mode dispersion, optical signal to noise ratio, can be learned from distortion of the received signal. For this purpose the signal that outputs the transmitter of the line shall be known at the receiving end, which normally is not the case. In one approach to fi x this defi ciency the lacking signal can be retrieved from a detected data sequence through the use of a known model of static and dynamic characteristics of the optical modulator. Parameters of such a model shall be measured at the transmitter and communicated to the receiver end via some separate data network. Although optical phase is lost in non-coherent receivers, possible phase modulation in a transmitter [1, 2] affects optical intensity of a signal being propagated through a dispersive medium, hence the complete knowledge on how data sequence in a modulator is transformed to optical fi eld is indispensable. In applications to a non-coherent OOK communication line direct phase measurements shall be avoided. This calls for a suitable method that allows learning modulator static and dynamic characteristics from intensity data only. The problem is on the crossing of system identifi cation and fi ber optics domains. It is the focus of this paper to fi nd from the plethora of identifi cation methods [3, 4] the one that fi ts the particular needs of the considered application. The paper focuses on a transmitter with a Mach-Zehnder optical modulator and extends results from [5] where a method for estimation of a Mach-Zehnder (MZ) modulator static characteristics from intensity measurements was introduced. Static and dynamic characteristics of a Mach-Zehnder modulator A Mach-Zehnder optical modulator converts an electronic driving signal to corresponding optical intensity and possibly some associated optical phase variation. Such phase vari... więcej»

Porównanie elektrycznych właściwości mikroczujników impedancyjnych wykonanych na podłożach krzemowych i szklanych DOI:10.15199/ELE-2014-012
(Konrad Chabowski, Tomasz Piasecki, Karol Nitsch, Teodor Gotszalk, Andrzej Sierakowski, Piotr Grabiec )

Technologie mikroelektroniczne dają możliwość wykonywania miniaturowych czujników, przyrządów półprzewodnikowych, układów scalonych oraz systemów mikro- i nanoelekromechanicznych. Systemy te, ze względu na bardzo duży stopień integracji, wymagają łączenia ze sobą różnych materiałów i struktur. Jako przykład można wymienić mikrosystemy przepływowe z wbudowanymi czujnikami impedancyjnymi, znajdujące zastosowanie w genomice, proteomice i badaniach komórek [1-3]. Konstruowano również biokompatybilne mikrosystemy przewidziane do zastosowań In vivo w ludzkim organizmie, służące np. do programowanego dozowania leków wraz z monitoringiem jego uwalniania [4] oraz wczesnego wykrywania niedokrwienia serca podczas operacji kardiochirurgicznych [5]. Prostszymi konstrukcjami mikroelektronicznymi są pojedyncze czujniki impedancyjne na jednolitym podłożu z utlenionego krzemu lub szkła, wykorzystywane m.in. do monitorowania wzrostu biofilmu bakteryjnego [6-8] lub, po biochemicznej funkcjonalizacji powierzchni podłoża, służące jako biosensory, które selektywnie detekują obecność analitu w próbce [9, 10]. Innym rodzajem czujników wykonanych w technologii krzemowej są czujniki mikromechaniczne wykonane na mikrodźwigniach krzemowych [11]. Struktury czujników impedancyjnych mogą być wykonane na podłożach dielektrycznych (szkło, polimer) [1-3, 8, 10] bądź na półprzewodniku pokrytym cienką warstwą dielektryka [4, 6, 7]. To drugie rozwiązanie jest interesujące ze względu na to, że daje ono możliwość integracji w jednej strukturze czujnika z układami elektronicznymi niezbędnymi do wykonania pomiaru. Badania prezentowane w artykule dotyczą porównania właściwości czujników impedancyjnych z elektrodami palczastymi o takiej samej geometrii, wykonanych na różnych podłożach: szkle, utlenionym krzemie oraz utlenionym krzemie z elektrodą ochronną. Porównywano zmierzone widma impedancyjne czujników umieszczonych w powietrzu, wodzie destylowanej oraz fizjologi... więcej»

Zastosowanie stereowizji we wspomaganiu operatorów monitoringu wizyjnego DOI:10.15199/ELE-2014-001
(Julian Balcerek, Adam Dąbrowski, Adam Konieczka)

Wśród zagrożeń występujących we współczesnym środowisku zurbanizowanym rozróżniamy katastrofy naturalne, wypadki i popełniane przestępstwa. Na przestrzeni wielu lat ludzie wypracowali metody przeciwdziałania zagrożeniom. Techniczne metody są oparte na obserwacji, wykrywaniu i, w miarę możliwości, na eliminacji lub ograniczeniu skutków występowania zagrożeń. Jednym ze sposobów obserwacji są systemy monitoringu wizyjnego. Obsługa systemu monitoringu nastręcza jednak wielu problemów. Długotrwałe oglądanie obrazu przez operatora jest monotonne i nużące. W związku z tym po pewnym czasie słabnie uwaga i koncentracja operatora. W ostatnich latach są rozwijane techniczne możliwości wspomagania obsługi systemu monitoringu wizyjnego, odnoszące się do obserwowanych osób i obiektów. Osoby mogą być automatycznie wykrywane, śledzone i liczone [1]. Rozpoznawane są twarze, płeć i sposób chodu [2]. Wykrywane jest przekraczanie linii na dworcach kolejowych, przechodzenie na czerwonym świetle, czy też pozostawianie bagaży przez podróżnych [1, 3]. Dym i ogień również mogą być wykrywane [3]. Istnieją metody do automatycznego wykrywania, rozpoznawania, śledzenia i zliczania pojazdów oraz do wykrywania zatorów drogowych [4, 5]. Zabronione manewry wykonywane przez kierujących pojazdami, takie jak: parkowanie i skręcanie w niedozwolonych miejscach lub jazda w niewłaściwym kierunku na drogach jednokierunkowych również są wykrywane [3]. Numery tablic rejestracyjnych mogą być automatycznie odczytywane, a kolizje i wypadki drogowe wykrywane [6, 7]. Techniczne możliwości wspomagania operatorów monitoringu wideo poprawiają wydajność w przypadku średnio skomplikowanych zadań. Jednak dowiedziono, że operator, który jest skupiony na prostym zadaniu, ma nawet lepszą wydajność, kiedy nie korzysta z systemów do automatycznej analizy sygnału wideo [8]. Jednym z głównych wymogów stawianych operatorowi monitoringu wizyjnego jest zdolność utrzymywania koncentracji... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Krótki przegląd technik biometrycznych do rozpoznawania osób (Mirosława Plucińska )
Biometria zajmuje się pomiarem i selekcją indywidualnych, fizjologicznych lub behawiorystycznych cech organizmów żywych oraz udoskonalaniem metod pomiaru i wyboru najbardziej niepowtarzalnych osobniczo parametrów. Obecnie istnieje na rynku szereg technik biometrycznych wykorzystywanych w systemach kontroli dostępu i uwierzytelniania osób. Techniki te są ciągle rozwijane i ulepszane, a także pojawiają też nowe techniki. Najnowszym trendem są multibiometrie, czyli łączenie kilku technik biometrycznych, co zwiększa pewność prawidłowego rozpoznawania osoby i podwyższa bezpieczeństwo systemów je wykorzystujących. Prace nad wykorzystaniem biometrii do celów rozpoznawania osób koncentrują się głównie na łatwo dostępnych cechach fizycznych. Wstępnie techniki biometryczne przydatne do uwierzytelniania osób można podzielić na trzy podstawowe grupy: 1. Techniki biometryczne znane od dawna: - rozpoznawanie rysów twarzy, - rozpoznawanie odcisku palca, - rozpoznawanie kształtu dłoni, - rozpoznawanie siatkówki oka, - rozpoznawanie tęczówki oka, - rozpoznawanie głosu. 2. Techniki biometryczne obecnie preferowane: - rozpoznawanie naczyń krwionośnych palca, - rozpoznawanie naczyń krwionośnych dłoni. 3. Techniki biometryczne przyszłości: - rozpoznawanie głosu (nowej generacji), - multibiometrie, w tym rozpoznawanie odcisku palca + naczyń krwionośnych palca. Interesujące są również techniki rozpoznawania cech behawioralnych takich, jak: - sposób pisania odręcznego (prędkość, nacisk, kąt), - sposób uderzania w klawisze klawiatury, - sposób mówienia (ruch ust), mimika. Prowadzone są także badania nad uwierzytelniania osób za pomocą rozpoznawania np.: geometrii uszu, odcisku kostek dłoni, chodu danego człowieka. Opis technik biometrycznych Rozpoznawanie rysów twarzy Rozpoznawanie geometrii twarzy jest wygodnym środkiem rozpoznawania - "swoją twarz masz zawsze ze sobą". Użytkownik spogląda w kamerę, która rejestruje obraz. Po obróbce i mat... więcej»

Architektura sprzętowego modułu predykcji wewnątrzramkowej Intra dla standardu H.265/HEVC (Andrzej Abramowski, Grzegorz Pastuszak)
Ostatnie lata charakteryzują się gwałtownym rozwojem technologii mobilnych, telewizji cyfrowej oraz szerokopasmowego Internetu. Postępy w tych dziedzinach wiążą się z dość znaczącym wzrostem ilości przesyłanych informacji wideo, co znacząco obciąża obecnie istniejące łącza telekomunikacyjne. W efekcie bardzo duża liczba firm oraz instytucji naukowych pracuje nad sposobami ograniczenia rozmiaru tego typu danych oraz wymaganej przez nie przepływności. Zarazem współcześni konsumenci są zainteresowani zdecydowanym wzrostem jakości oglądanych materiałów. Aby pogodzić te sprzeczne zapotrzebowania w 2010 r. grupa ekspertów Joint Collaborative Team on Video Coding rozpoczęła prace nad nowym standardem kompresji wideo pod kodową nazwą High Efficiency Video Coding (HEVC). Za cel postawiono sobie ograniczenie o połowę przepływności zakodowanej sekwencji wideo w porównaniu do H.264/AVC (Advanced Video Coding), przy jednoczesnym zachowaniu jakości ocenianej miarami subiektywnymi. Rozwój standardu trwał ponad trzy lata i zakończył się ostatecznym jego przyjęciem w 2013 r. przez ISO (International Organization for Standardization) i ITU Telecommunication Standardization Sector jako H.265/HEVC ([1]). Składnia standardu H.265/HEVC wykorzystuje regularne struktury drzewiaste, zapisywane w strumieniu wyjściowym. W porównaniu do jego poprzednika, H.264/AVC, istotnie rozbudowana została predykcja wewnątrzramkowa (Intra), predykcja międzyramkowa (Inter) oraz algorytmy transformacji. Wiąże się to ze zwiększoną złożonością obliczeniową, jednak wybrane rozwiązania powinny umożliwić zrównoleglenie znaczącej części operacji. W chwili obecnej opracowywane są dalsze rozszerzenia m. in. wersja skalowalna oraz dostosowana do kodowania sekwencji trójwymiarowych. Predykcja wewnątrzramkowa (Intra) Jedną z podstawowych technik w kodowaniu wideo jest predykcja wewnątrzramkowa. Wykorzystuje ona uprzednio zakodowane próbki z danej ramki do przewidywania poprze... więcej»

Fotonika - wiodąca technologia europejska (Ryszard S. Romaniuk)
Unia Europejska wyznacza dla Europy "polityczne" priorytety rozwojowe. Polityczne, w znaczeniu społeczne, infrastruktury cywilizacyjnej, dobrobytu, zasobów, warunków życia, zdrowia, konkurencyjności w skali globalnej, rozwoju gospodarczego, luki cywilizacyjnej wobec globalnych liderów. UE działa, między innymi, poprzez swoje specjalizowane ciała, inicjatywy i akcje takie jak, długookresowe strategie - Europa 2020, Europejskie Forum Strategiczne Infrastruktury Badawczej ESFRI, agendy - Europejski Instytut Innowacji i Technologii EIT, programy ramowe - obecnie Horizon2020 itp. Takie działania na poziomie centralnym - europejskim mają mieć w założeniu adekwatnych partnerów na poziomie krajowym w postaci np. odpowiednich konsorcjów innowacyjnych - platform, klastrów, węzłów, centrów itp. Fotonika została wybrana, w planach strategicznych rozwoju Europy, na jedną z kluczowych specjalizacji inteligentnych. Taki wybór niesie ze sobą szereg konsekwencji organizacyjnych, logistycznych, gospodarczych, społecznych i wiele innych. Fotonika i inne dziedziny inn... więcej»

Bezprzewodowy detektor upadków (Bartłomiej Wójtowicz, Andrzej Dobrowolski)
Powszechnym, a zarazem poważnym problemem współczesnego świata, jest proces starzenia się społeczeństw, który wywołuje konsekwencje, m.in. w obszarze społecznym, psychologicznym, ekonomicznym, a także politycznym [12]. Nie bez znaczenia staje się więc zapewnienie właściwej opieki zdrowotnej najbardziej narażonej na problemy grupie, tj. ludziom w wieku powyżej 65 lat [2, 16]. Na przykładzie Polski, w roku 2000 grupa ta stanowiła 12,3% ogółu społeczeństwa, zaś prognozy Głównego Urzędu Statystycznego wskazują, że w roku 2020 grupa ta powiększy swoją liczebność niemal dwukrotnie [12, 13]. Wraz ze starzeniem się człowieka postępują procesy fizjologiczne charakteryzujące się zmianami w układzie nerwowym, które skutkują spowolnieniem procesów myślowych, spadkiem napięcia mięśniowego, zaburzeniem równowagi, a także osłabieniem odruchów [12]. W rezultacie tych zmian zwiększa się ryzyko upadków oraz spowodowanych nimi urazów. Stanowi to nie tylko problem zdrowotny ludzi w wieku geriatrycznym, ale jest to także poważny problem w skali społeczno-ekonomicznej kraju. Na upadek narażone jest aż 33% społeczeństwa w wieku powyżej 65. roku życia i odsetek ten wzrasta wraz z wiekiem [1, 2, 16]. Według [2] w roku 2002 upadki doprowadziły do zgonu aż 391 tysięcy ludzi, a 25% tych zdarzeń dotyczyła krajów o wysokich dochodach. Badania wskazują, że ponad połowa tych zdarzeń prowadzi do hospitalizacji i kończy się ograniczeniem sprawności ruchowej, a w najgorszych przypadkach skutkuje śmiercią człowieka [2, 9, 10, 14]. Doraźna pomoc medyczna niezbędna jest w 10&#8209;15% upadków, z czego aż 50% dotyczy ludzi powyżej 65-tego roku życia. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych (stany lękowe, depresje, ograniczenie aktywności ruchowej [12]), definiowanych w [4] jako syndrom poupadkowy. W celu zapobiegania negatywnym skutkom upadku istotne staje się opracowanie mechanizmów oraz rozwiązań pozwalających na skrócenie czasu pomiędzy ... więcej»

Cechy barier elektromagnetycznych w ochronie podzespołów i urządzeń radioelektronicznych przed skutkami oddziaływania impulsu elektromagnetycznego dużej mocy (Marian WNUK, Zdzisław CHUDY)
Cechą charakterystyczną współczesnych urządzeń radioelektronicznych jest ich ograniczona odporność na oddziaływanie napięć i prądów udarowych dochodzących do tych urządzeń z sieci zasilającej lub linii przesyłu sygnałów, a pochodzących od energii zakłóceń i zaburzeń promieniowanych bądź przewodzonych. Powstające przepięcia i przetężenia są przyczyną utraty sprawności pojedynczych lub grupy podzespołów, a tym samym funkcjonalności danego urządzenia bądź całego systemu. Największe zagrożenie dla utrzymania sprawności technicznej i pełnej funkcjonalności współcześnie eksploatowanych urządzeń radioelektronicznych stanowi impuls elektromagnetyczny dużej mocy zakresu mikrofal, który można generować przy wykorzystaniu celowo zbudowanych generatorów mikrofal dużej mocy. Efektem oddziaływania może być czasowe lub częściowe obezwładnienie techniczne z uszkodzeniem włącznie. Podstawowa metoda ochrony bądź zminimalizowania ryzyka uszkodzeń to właściwe zastosowanie barier elektromagnetycznych. Dostępne systemy ekranujące znacząco różnią się między sobą pod względem skuteczności i opłacalności. Większość z nich jest zbyt skomplikowana w montażu i zaawansowana technologicznie, przez co zbyt droga. Współczesne zagrożenia elektromagnetyczne Niejonizujące pola elektromagnetyczne to jeden z bardziej tajemniczych i budzących niepokój czynników fizycznych występujących w środowisku człowieka. Towarzyszą one człowiekowi od momentu, w którym nauczono się wytwarzać energię elektryczną, a następnie przesyłać ją przy pomocy prądu elektrycznego. Obecnie obserwuje się systematyczny wzrost sztucznych źródeł promieniowania elektromagnetycznego (PEM), tj. celowo wytwarzanych przez człowieka. Głównym powodem, dla którego PEM jest obiektem zainteresowania badaczy jest to, że jest ono formą energii. Energia ta rozprzestrzenia się z prędkością światła w postaci promieniowania elektromagnetycznego. Kiedy w polu PEM znajdzie się obiekt materialny (np. człowiek)... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros&#8201;)
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Nieinwazyjna metoda oznaczania glukozy w badaniach cukrzycy (Dagmara Kwapińska, Artur Rydosz, Wojciech Maziarz, Tadeusz Pisarkiewicz, Konstanty W. Marszałek, Beata Olszańska-Piątek)
Cukrzyca w Polsce i na świecie Na całym świecie blisko 347 milionów ludzi żyje ze zdiagnozowaną cukrzycą. W 2004 roku z powodu powikłań wywołanych przez cukrzycę zmarło ok. 3,4 miliona ludzi. Według przewidywań Światowej Organizacji Zdrowia (ang. World Health Organization) w 2030 roku cukrzyca będzie na siódmym miejscu w rankingu chorób bezpośrednio wywołujących śmierć [1]. Szacunkowa liczba osób chorych na cukrzycę w Polsce oscyluje wokół 3 milinów, a liczba osób niezdiagnozowanych szacowana jest na ok. 750 tys. [2]. Powikłania wywoływane przez nieleczoną cukrzycę to: powikłania sercowe (75%), udary mózgu (14%), choroby nerek (8%), choroby oczu (1%) [3]. Cukrzyca jest chorobą metaboliczną związaną z metabolizmem cukrów. Spowodowana jest brakiem bądź niedostateczną ilością insuliny. Generalnie rozróżniamy dwa typy cukrzycy: typ 1 i typ 2. Znany jest jeszcze typ 1.5 oraz cukrzyca ciążowa [4]. Typ 1 (cukrzyca insulinozależna) stanowi ok. 10% wszystkich przypadków zachorowań na świecie. Charakteryzuje się bezwzględną koniecznością przyjmowania insuliny [5]. Symptomy cukrzycy typu 1 to m.in. wzmożone pragnienie, bardzo częste oddawanie moczu, szybkie chudnięcie osoby, która nie jest na diecie, senność, brak apetytu, suchość skóry [6]. Cukrzyca typu 2 (insulinoniezależna) stanowi zdecydowaną większość wszystkich zachorowań na cukrzycę. Dotyka ona ludzi w każdym wieku i określana jest jako choroba cywilizacyjna [1]. W przeciwieństwie do cukrzycy typu 1 nie jest związana z całkowitym brakiem insuliny w organizmie a jedynie z jej niedoborem (ograniczonym produkowaniem insuliny przez trzustkę). W przypadku cukrzycy typu 2 początkowe objawy nie są tak jednoznaczne i często bywają ignorowane. Szacuje się, że blisko 30% ze wszystkich cukrzyków w Polsce żyje jako osoby niezdiagnozowane. Objawy takie jak: suchość skóry, senność, zaburzenie widzenia, zaburzenia erekcji są bardzo często ignorowane. Badania cukru, które wykonuje się metodam... więcej»

Poszukiwanie rozwiązań problemu plecakowego z wykorzystaniem algorytmu genetycznego (Zbigniew Handzel, Mirosław Gajer )
Problem plecakowy należy do klasy problemów NP -zupełnych. Zagadnienia określane mianem NP -zupełnych stanowią klasę problemów obliczeniowych, w przypadku których nie jest znany żaden algorytm rozwiązujący dowolny z tego rodzaju problemów w czasie wielomianowym. Co interesujące, jak dotychczas nikomu nie udało się jeszcze udowodnić, że taki algorytm rozwiązujący któreś z zagadnień NP -zupełnych w czasie wielomianowym nie istnieje. Problem zagadnień NP -zupełnych jest zatem nadal otwarty i wciąż czeka na swe ostateczne rozwiązanie, stanowiąc tym samym chyba najbardziej doniosłą i zarazem jakże niezwykle intrygującą zagadkę informatyki teoretycznej [1]. Co ciekawe, wszystkie problemy obliczeniowe należące do zbioru zagadnień NP -zupełnych są wzajemnie równoważne w tym sensie, że każdy z nich można przetransformować do dowolnego innego w czasie wielomianowym. W związku z tym, gdyby został znaleziony algorytm rozwiązujący w czasie wielomianowym dowolny z problemów NP -zupełnych, wówczas automatycznie wszystkie pozostałe zagadnienia NP -zupełne byłby także rozwiązywalne w czasie wielomianowym. Niestety, jak już uprzednio wspomniano, nikomu nie udało się jeszcze odnaleźć takiego algorytmu bądź udowodnić, że jego znalezienie nie jest możliwe. Istniejący stan rzeczy powoduje, że na potrzeby praktycznych obliczeń zagadnienia NP -zupełne są rozwiązywane jedynie metodami heurystycznymi. W takim wypadku już z góry godzimy się z faktem, że rozwiązanie optymalne nigdy nie zostanie odnalezione, ponieważ prawdopodobieństwo jego przypadkowego natrafienia w procesie poszukiwań wynosi praktycznie zero (choć teoretycznie nie jest to zdarzenie niemożliwe). Natomiast w praktyce poszukujemy rozwiązań suboptymalnych o możliwie jak najlepszej jakości [2]. Tematyka artykułu dotyczy wykorzystania algorytmu genetycznego w celu poszukiwania rozwiązań zagadnienia plecakowego, które należy do klasy problemów NP -zupełnych. Problem plecakowy Załóżmy, że... więcej»

Zastosowanie metody najmniejszych kwadratów do estymacji prędkości nosiciela radaru z syntetyczną aperturą (Piotr Serafin, Adam Kawalec, Czesław Leśnik, Marcin Szugajew)
Zobrazowania uzyskiwane dzięki technice syntezy apertury pozwalają na prowadzenie obserwacji terenu z rozróżnialnością zbliżoną do fotograficznej, jednak nie są one ograniczone warunkami oświetleniowymi czy atmosferycznymi panującymi w rejonie zainteresowania. W systemach z syntetyczną aperturą radar instalowany jest zwykle na ruchomej platformie, najczęściej na statku powietrznym. W celu wprowadzenia podstawowych pojęć rozważony zostanie system SAR w konfiguracji lotniczego systemu obserwacji bocznej [1]. Geometria takiego systemu przedstawiona została na rys. 1. Przyjęto założenie, że statek powietrzny będący nosicielem radaru, przemieszcza się ze stałą prędkością vR, na stałej wysokości hR po linii prostej. Listek główny charakterystyki kierunkowej anteny radaru skierowany jest prostopadle do trajektorii ruchu nosiciela i opromieniowuje wycinek terenu. Radar wysyła sygnały sondujące o częstotliwości nośnej f0 z częstotliwością powtarzania Fp i odbiera sygnały echa odbite od obiektów znajdujących się w opromieniowanej przestrzeni. Jeżeli postać analityczna sygnału nadawanego zostanie przedstawiona w postaci następującej: (1) gdzie A(t) jest zespoloną amplitudą sygnału, a f0 jest częstotliwością nośną sygnału sondującego, to odebrany sygnał echa od obiektu punktowego można zapisać następująco: (2) gdzie tT jest czasem opóźnienia sygnału echa w stosunku do momentu wysłania sygnału sondującego i wynosi: (3) natomiast RT jest odległością pomiędzy radarem i obserwowanym obiektem, a c jest prędkością propagacji fali elektromagnetycznej w przestrzeni. W odbiorniku radaru sygnały echa poddawane są konwersji do pasma podstawowego, zatem uwzględniając wyrażenie (3) postać sygnału echa można zapisać jako: (4) W radarze z syntetyczną aperturą odległość pomiędzy obserwowanym obiektem a radarem zmienia się ze względu na ich wzajemny ruch. Jeżeli przyjęty zostanie układ współrzędnych wykorzystany na rys. 1, to funkcję zmiany odle... więcej»

Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Microfluidic valve made in LTCC (Low Temperature Co-fired Ceramic) technology - preliminary results (Mateusz Czok, Karol Malecha, Leszek Golonka)
The history of the LTCC (Low Temperature Co-Fired Ceramics) technology dates back to early 80s, when it was developed by Hughes and DuPont. Since then the LTCC technology has attracted extraordinary attention in fabrication of hybrid circuits, sensors, and microsystems [1]. The typical LTCC module is built of several ceramic layers with internal and external mechanical and electrical structures. All parts are connected together and create one, complex multilayer structure. The LTCC technology provides possibilities of using embedded and external (on both sides of the module) components in combination with excellent mechanical and thermal properties of ceramic material. Typical LTCC module is a multilayer structure constructed from dielectric tapes. Different patterns of conductors, resistors and dielectrics can be deposited on the LTCC tape layers using screen-printing or ink-jet printing techniques. Thick-film conductors and passives can be fabricated as a surface or embedded structures. Moreover, additional passive and active components can be easily assembled on the top or bottom surface of the LTCC module using various mounting techniques (e.g. surface mounting technique, flip-chip etc.). Originally, LTCC modules provided only electrical functions, but some features of the LTCC technology allowed expanding its applications. The main features of the technology are: possibility of 3D structure creation, chemical resistance, possibility of working at high temperature and harsh environment, ability of using typical thick... więcej»

Recycling of electronic waste - new approach (Marcin Szwech, Michał Kotarba, Małgorzata Jakubowska )
Currently the need for more efficient recycling of electronic waste becomes more apparent. One of the main factors for this is the rapid technology development in last few decades. New generation of electronic devices became more rapid than ever before thus shortening the life span of electronic parts from 4-6 years at the end of XX century to 2 years in first decade of XXI century. If this rate would continue to increase, within next few decades new generation of electronics will be release to market every few months. Economical and social aspects This current situation already significantly increased generation of electronic waste in turn raising new environmental issues. One of those issues is the placement of the waste. In the light of current EU legislation, directive 1999/31/EC, that states&#8220;to prevent or reduce as far as possible negative effects on the environment, in particular the pollution of surface water, groundwater, soil and air, and on the global environment, including the greenhouse effect, as well as any resulting risk to human health, from the landfilling of waste, during the whole life-cycle of the landfill"... więcej»

Investigation of electrocatalytic gas sensor properties in presence of chlorine (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski, Piotr Jasiński)
Gas sensors based on solid state electrolytes have many advantages, such as durability, low cost and long-term stability. There is a number of types of solid state gas sensors. The main disadvantage of such sensors is usually lack of selectivity. Electrochemical sensors operating in electrocatalytic mode seem to have improved selectivity due to its particular working mechanism [1]. Operation principle of such sensors is based on the excitation of a galvanic cell with a periodic triangular voltage, while current response is measured. During voltage sweep an oxidation and a reduction of chemical species occurs on electrodes surface. As a result sensor response in a form of an unique voltammetric characteristic is obtained. Shape of that current-voltage (I-V) curve depends on type and composition of gases in the sensor surrounding [2]. Earlier studies indicated that electrocatalytic gas sensors based on Nasicon can be used for NO2 [1, 3, 4], SO2 [1], NH3 [4, 5] and H2S [6] detection. Optimal working temperature was determined for NO2 (175&#186;C), NH3 (350 C) and H2S (300 C). In this study investigation of electrocatalytic sensors properties in the presence of chlorine are presented. Experimental Nasicon pellets were prepared using the sol-gel method according to procedure [7]. Process of obtaining... więcej»

Wybrane problemy przetwarzania sygnałów wyjściowych detektora fazy w odbiorniku radaru dopplerowskiego w sensorze mikrofalowym do detekcji funkcji życiowych (Mariusz Łuszczyk, Łukasz Dąbrowski)
W rozwoju współczesnej medycyny można wyodrębnić kierunek zmierzający do zastosowania bezinwazyjnego pomiaru parametrów biomedycznych człowieka. Kierunek ten uwidacznia się w hospitalizacji, telemedycynie oraz w przypadkach, kiedy kuracja pacjenta odbywa się w warunkach domowych [1]. Każdy z wymienionych kierunków wymaga stworzenia osobistych urządzeń medycznych wyposażonych w urządzenia bezprzewodowej transmisji danych oraz rozwijaniu technologii w tym zakresie. Takimi urządzeniami są sensory, które dostarczają informacji o fizycznych, chemicznych lub biologicznych cechach monitorowanego systemu. W ogólności takimi parametrami mogą być temperatura, ciśnienie, prędkość lub przyśpieszenie poruszającego się ciała, bądź w przypadku sensorów wykorzystywanych w medycynie parametry życiowe człowieka, do których zalicza się tętno, oddech, ciśnienie krwi oraz temperaturę. Sensory medyczne podlegają intensywnemu rozwojowi. Dzieje się to pod wpływem wzrastających wymagań, co do skuteczności diagnostyki medycznej. Dlatego też na polu rozwoju sensorów medycznych można zaobserwować równoległy rozwój tradycyjnych technologii (np. technik mikrofalowych) oraz nowe zastosowania biotechnologii oraz mikro- i nanotechnologii. Sensory mikrofalowe (radary) do detekcji wybranych funkcji życiowych człowieka wykorzystują ruch klatki piersiowej człowieka towarzyszący oddychaniu oraz biciu serca. Rozważania zawarte w niniejszym artykule są więc aktualne również w zakresie monitorowania ruchu oscylacyjnego innych powierzchni odbijających fale elektromagnetyczne za pomocą opisanych urządzeń. Amplitudy tych ruchów są rzędu od pojedynczych milimetrów do ok. 20 mm (przyjmuje się średnią wartość 7 mm) dla oddechu oraz dziesiątych części milimetra dla bicia serca [2]. Typowe spoczynkowe częstotliwości oddechu wynoszą 0,2...0,7 Hz, zaś pracy serca 1...3 Hz. Górne wartości tych częstotliwości dotyczą noworodków, dolne osób dorosłych. W badaniach prowadzonych ... więcej»

Investigation of integrated circuit thermal parameters for different package configurations (Maciej Frankiewicz, Adam Gołda, Andrzej Kos)
Big power consumption resulting with overheating is an important problem in designing high frequency integrated circuits [1]. As a consequence thermal issues of the circuit work must be considered. That is the reason why precise information on thermal parameters is necessary. The paper presents measurements of thermal parameters of an integrated circuit. The measurements were done for a test chip consisting of some heat sources and temperature sensors. Presented results were gathered in several different chip configurations. Finally, software has been created for verification of the results calculated by the model. Calculated values of the temperature are compared with ones measured in the chip. Measurement system To obtain information about thermal parameters (thermal resistance, thermal capacity and thermal time constant) of the integrated circuit under different test conditions a specialized measurement system is needed. In presented case it is based on ASIC (Application Specified Integrated Circuit) dedicated for thermal investigations and EFM32 microcontroller. The test chip was designed and fabricated in CMOS 0.7 [mikro]m technology with 5 V supply voltage. Structure of the integrated circuit is presented in Fig. 1A [2]. Elements marked as &#8216;A&#8217; are analogue parts while 'D' are digital ones. They play a role of heat ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»