profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Ocena jakości energii elektrycznej w obiektach przemysłowych - badania eksperymentalne (TOMASZ TARASIUK, JANUSZ MINDYKOWSKI, PIOTR GNACIŃSKI, MARIUSZ SZWEDA, ANDRZEJ PIŁAT, MARIUSZ GÓRNIAK)
Rozwój nowych technologii w zakresie wytwarzania i użytkowania energii elektrycznej, z jednej strony umożliwia zwiększenie efektywności energetycznej, zaś z drugiej strony istotnie zmienia charakterystyki energii elektrycznej w systemach elektroenergetycznych. Przede wszystkim zauważalny jest stały wzrost liczby i mocy odbiorników o nieliniowych charakterystykach oraz coraz powszechniejsze wykorzystanie odnawialnych i rozproszonych źródeł energii elektrycznej. W tym kontekście należy wspomnieć zwłaszcza o energetyce wiatrowej i, w dalszej kolejności, solarnej. Efektem tych zmian są obserwowane coraz większe poziomy zniekształceń napięć i prądów w systemach elektroenergetycznych, problemy z bilansowaniem mocy związane ze zmienną i trudną do kontrolowania mocą źródeł i związane z tym możliwe zmiany częstotliwości składowej podstawowej. Towarzyszy temu rozwój technik informacyjnych oraz nowych technologii w zakresie cyfrowego przetwarzania sygnałów, komunikacji, sterowania itp. Połączenie wyżej wspomnianych technik i technologii umożliwia integrację różnych elementów złożonego systemu elektroenergetycznego, prowadząc do powstania w pełni inteligentnych systemów elektroenergetycznych (ISE). Istotnym elementem tych systemów będzie inteligentna infrastruktura pomiarowa [1], umożliwiająca dwukierunkową komunikację pomiędzy wszystkimi uczestnikami rynku energii elektrycznej. Dodatkowo, aby zwiększyć korzyści związane z integracją licznych rozproszonych źródeł energii elektrycznej, często o małej mocy oraz ograniczyć problemy związane z niezawodnością dostaw dla kluczowych odbiorców (szpitale, centra danych, systemy bezpieczeństwa), proponuje się wprowadzanie lokalnych podsystemów elektroenergetycznych o wyraźnie określonych elektrycznie granicach, zawierających rozproszone źródła energii elektrycznej i odbiorców o różnym charakterze, czyli ... więcej»

Właściwości fotokatalityczne wielowarstwowych powłok antyrefleksyjnych (Damian Wojcieszak, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Frank Placido, Shigeng Song)
Rola powłoki antyrefleksyjnej (AR) polega na minimalizowaniu odbić światła od powierzchni podłoża na które została naniesiona. Jej działanie oparte jest na zjawisku interferencji światła (wygaszanie odbitych fal o jednakowej amplitudzie, ale przesuniętych w fazie). Z kolei wielowarstwowe powłoki AR wykorzystują efekt wielokrotnej interferencji. Składają się one z wielu naprzemiennie ułożonych warstw o różnych grubościach, wykonanych z materiałów o różnych właściwościach optycznych [1-4]. Istotnym parametrem optycznym cienkich warstw stosowanych w konstrukcji powłok optycznych jest zwłaszcza wartość współczynnika załamania światła (n) [1, 2]. Na rysunku 1 przedstawiono przykładowe charakterystyki cienkich warstw TiO2 i SiO2, które są powszechnie stosowane do wytwarzania m.in. powłok antyrefleksyjnych. Są to materiały typu H i L, czyli o dużej (TiO2) i małej (SiO2) wartości n. Jeśli chodzi o dwutlenek tytanu to materiał ten, oprócz dużej przezroczystości dla światła widzialnego, posiada szereg innych zalet. Jest on nietoksyczny, stabilny chemicznie, termicznie i mechanicznie, a także wykazuje aktywność fotokatalityczną [5-7]. Dlatego, jest on stosowany tak powszechnie w konstrukcji różnego typu powłok i filtrów optycznych. W wypadku typowych powłok antyrefleksyjnych na bazie TiO2 i SiO2 jako górną warstwę, która ma kontakt z otoczeniem (powietrzem atmosferycznym), stosuje się dwutlenek krzemu, czyli materiał o mniejszym współczynników załamania światła. Natomiast, gdy ułożenie poszczególnych warstw w powłoce AR jest odwrotne, wraz ze wzrostem grubości warstwy typu H (np. TiO2) maleje poziom przezroczystości całej powłoki AR. Na rysunku 2 przeds... więcej»

Laserowa metoda wykonywania cieczowych mikrowymienników ciepła zintegrowanych z elementami elektronicznymi (Mateusz Tański, Marek Kocik, Robert Barbucha, Jerzy Mizeraczyk )
W dobie miniaturyzacji układów elektronicznych problem skutecznego odprowadzania z nich ciepła staje się coraz bardziej skomplikowany. Jedną z przeszkód na drodze do zwiększenia stopnia zminiaturyzowania układów elektronicznych są duże wymiary tradycyjnych systemów odprowadzających ciepło emitowane przez elementy elektroniczne (diody, tranzystory, układy scalone) [1]. Przykładem takich systemów są radiatory, na których montowane są obudowy elementów elektronicznych dużej mocy. Duże wymiary radiatorów ograniczają możliwość gęstego upakowania elementów elektronicznych na płytkach drukowanych [2]. Rozwiązaniem problemu chłodzenia układów elektronicznych może okazać się zintegrowanie układów odprowadzających ciepło z elementami elektronicznymi. Przykładem takiego rozwiązania są cieczowe mikrowymienniki ciepła zintegrowane z elementami elektronicznymi. W tym przypadku ciecz chłodząca doprowadzana jest blisko półprzewodnikowego elementu elektronicznego, co pozwala na skuteczne odprowadzanie ciepła emitowanego przez ten elem... więcej»

Quasi-elastyczne mozaikowe taśmy fotowoltaiczne (Kazimierz Drabczyk, Stanisław Maleczek, Piotr Panek )
Rynek produktów fotowoltaicznych mimo kryzysu ekonomicznego nadal przeżywa ciągły wzrost produkcji oraz staje się coraz powszechniej stosowanym alternatywnym źródłem energii na świecie [1]. Przemawiają za tym głównie czynniki dotyczące ochrony środowiska naturalnego, jak również czynniki ekonomiczne oraz bezpieczeństwa energetycznego. Ciągły rozwój tej dziedziny przyczyni się także do stałego spadku cen modułów w relacji USD/Wp [2]. Jednakże dotyczy on najpowszechniej produkowanych oraz stosowanych baterii słonecznych w postaci modułów fotowoltaicznych o standardowych wymiarach, które stosowane są w typowych instalacjach produkujących energie elektryczną. Tego typu moduły konstruowane są w oparciu o ramy aluminiowe oraz zabezpieczające szyby ze szkła hartowanego o wysokiej transmisji dla światła słonecznego. Pojawia się jednak wiele dziedzin, w których od baterii słonecznych wymaga się przede wszystkim niskiej wagi i elastyczności. Należą do nich układy zasilania na potrzeby wojska oraz systemy wykorzystywane w sytuacjach kryzysowych. Autorzy przedstawili już koncepcje takich właśnie baterii przy czym pierwotnie zakładano stworzenie taśmy wyposażonej w elektronikę wykonawczą oraz stworzenie specjalnej maty PV [3]. W niniejszym artykule przedstawiono pierwsze badania dotyczące wykonania elastycznej taśmy fotowoltaicznej. Eksperyment Cięcie ogniw o dużej powierzchni na małe struktury Laboratorium Fotowoltaiczne IMIM PAN posiada opracowaną technologię wytwarzania ogni... więcej»

Właściwości wielofunkcyjnych cienkich warstw TiO2:Nd z przeznaczeniem na powierzchnię ogniw słonecznych (Michał Mazur, Danuta Kaczmarek, Damian Wojcieszak, Jerzy Morgiel, Małgorzata Kalisz, Magdalena Szymańska )
Zastosowanie tlenków metali o ściśle określonych właściwościach wzrasta w ostatnich latach, szczególnie w nowoczesnych technologiach, np. nanotechnologii [1-3]. Tlenki metali są używane w elektronice, optoelektronice, czy fotonice. Dla przykładu ze względu na bardzo dobre właściwości izolacyjne znajdują one zastosowanie w przemyśle półprzewodnikowym do wytwarzania układów scalonych wielkiej skali integracji. Domieszkowanie materiałów tlenkowych daje możliwość modyfikacji ich właściwości w bardzo szerokim zakresie [4-7]. Wśród materiałów stosowanych w nowoczesnych technologiach można wyróżnić materiały mikrokrystaliczne o krystalitach rzędu mikrometrów oraz materiały nanokrystaliczne o strukturze, którą tworzą krystality o wymiarach mniejszych niż 100 nm. Nanokrystaliczne tlenki metali o rozmiarach krystalitów rzędu od kilku do kilkunastu nanometrów mogą występować zarówno w postaci cienkich warstw, jak i proszków. W szczególności cienkie warstwy stosowane są w celu poprawienia właściwości materiałów, na które są nanoszone [1]. Cienkie warstwy mogą pełnić funkcje dekoracyjne, czy też stanowić materiał o zwiększonej odporności na korozję, odporności na ścieranie i twardości. Z tego względu nanokrystaliczne tlenki metali mogą być również stosowane jako warstwy ochronne. Inne przykłady zastosowania nanokrystalicznych warstw tlenkowych to powłoki antyrefleksyjne, nakładane np. na powierzchnię ogniw słonecznych, powłoki antybakteryjne, przezroczyste elektrody czy też warstwy czujnikowe. Jednym z materiałów, który w dziedzinie wytwarzania różnego typu powłok od lat cieszy się dużym zainteresowaniem jest dwutlenek tytanu (TiO2) [1, 7-10]. Zainteresowanie dwutlenkiem tytanu związane jest z unikatowymi właściwościami tego materiału, dzięki czemu może on zostać wykorzystany w różnych gałęziach przemysłu [1]. Do zalet TiO2należy między innymi neutralność dla środowiska, nietoksyczność, duża odporność chemiczna, termiczna, mechaniczna... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Czujnik wodoru do zastosowań w podwyższonej temperaturze i wilgotności (Elżbieta Czerwosz, Anna Kamińska, Ewa Kowalska, Mirosław Kozłowski, Sławomir Krawczyk, Joanna Radomska, Halina Wronka)
Paliwa naturalne (ropa naftowa, węgiel i gaz ziemny) są wykorzystywane w świecie jako podstawowe źródła energii. W wyniku procesów spalania zanieczyszczają jednak środowisko. Zasoby paliw naturalnych są nieodnawialne i ograniczone. Surowcem, który mógłby zastąpić paliwa kopalne w przyszłości, jest wodór, który spala się do wody nie powodując zanieczyszczeń otoczenia. Zainteresowanie wodorem wynika z dwóch głównych przesłanek: 1) potrzeby zapewnienia bezpieczeństwa zapasów energetycznych oraz 2) potrzeby znalezienia ogólnodostępnych, tanich źródeł energii. Te przesłanki są impulsem do rozwoju gospodarki, a zwłaszcza energetyki i transportu, opartych na wodorze. Wodór jest stosowany w wielu dziedzinach nauki i przemysłu, między innymi w procesach uwodorniania (utwardzania tłuszczów), przekształceniach ropy naftowej, w chemicznej produkcji związków (np. amoniaku, chlorowodoru, metanolu), w technologiach materiałowych, metalurgii, podczas spawania (palniki tlenowo-wodorowe), w chłodzeniu kriogenicznym czy silnikach rakietowych (paliwo w mieszaninie z tlenem). Czujniki wodoru, jako przyrządy monitorujące, powinny charakteryzować się dużą czułością, krótkim czasem odpowiedzi i krótkim czasem regeneracji. Ponadto, powinny być stosunkowo tanie w produkcji i eksploatacji. Obecnie istnieje wiele typów czujników do detekcji wodoru np. powierzchniowe detektory fal akustycznych SAW [1] (ang. Surface Acoustic Wave), sensory typu MOS (ang. Metal-Oxide- Semiconductor) [2] oraz czujniki typu MOSFETs (ang. Metal-Oxide- Semiconductor Field Effect Transistors) [3]. Niektóre z tych czujników zawierają metale przejściowe (np. Ni, Pd, Pt lub ich stopy), ponieważ rozpuszczalność wodoru w tych metalach jest duża [4]. Adsorpcja wodoru na tych metalach zmienia ich właściwości fizyczne, elektryczne lub optyczne. Zmiany te mogą być podstawą do stwierdzenia obecności wodoru w otoczeniu. W zależności od zasady działania i budowy detektory wodoru wykazują ... więcej»

Efektywność środowiskowa produktów, a możliwości oceny cyklu życia płytek obwodów drukowanych z użyciem internetowego narzędzia "LCA to go" (Janusz Sitek, Marek Kościelski)
Efektywność środowiskowa produktów - wprowadzenie Od szeregu lat obserwowany jest wzrost działań pro-ekologicznych w wymiarze globalnym [1, 2], jak i na terenie Unii Europejskiej [3-5], który w ostatnim czasie uległ znaczącemu przyspieszeniu. Związane jest to z realizacją celu Unii Europejskiej oraz jej państw członkowskich, jakim jest stworzenie konkurencyjnej gospodarki, która efektywnie wykorzystuje ograniczone zasoby środowiska. W związku z tym podejmowane są działania, których celem jest eliminowanie produktów o negatywnym wpływie na środowisko i wspieranie rynku produktów ekologicznych [6]. Jednym z przykładów działań w tym zakresie jest opublikowane 5 maja 2013 roku przez Komisję Europejską "Zalecenie w sprawie stosowania wspólnych metod pomiaru efektywności środowiskowej w cyklu życia produktów i organizacji oraz informowania o niej" [7]. Planuje się, że przyszłe regulacje dotyczące zamówień publicznych w Unii Europejskiej mogą definiować ofertę najkorzystniejszą ekonomicznie nie tylko, jako ofertę o najniższej cenie, ale również ofertę najkorzystniejszą biorąc pod uwagę rachunek kosztów cyklu życia LCA (ang. Life-Cycle Assessment). W przyszłości planowane jest wykorzystanie metodyki pomiaru efektywności środowiskowej w konstrukcji instrumentów dotyczących wspierania poszczególnych przedsiębiorstw i branż, jak również uzależnienie wysokość ewentualnej pomocy od poziomu efektywności środowiskowej dóbr produkowanych przez poszczególnych przedsiębiorców. Coraz bardziej prawdopodobne jest również różnicowanie stawek podatkowych w zależności od wyniku analizy środowiskowej [7]. Dlatego znajomość tematyki oceny efektywności środowiskowej produktów w ich cyklu życia staje się coraz bardziej ważna dla pozycji konkurencyjnej danego produktu oraz firmy. Istotnym problemem przy ocenie i prezentacji efektywności środowiskowej produktów jest wybór metod jej oceny, wskaźników ją opisujących oraz sposobu prezentacji ekologiczności ... więcej»

Rejestrator zdarzeń w urządzeniach elektroenergetycznej automatyki zabezpieczeniowej i sposoby jego zabezpieczania przed nieuprawnionym skasowaniem (Leszek Książek, Andrzej Gacek)
W artykule przedstawiono problematykę rejestracji zdarzeń w urządzeniach elektroenergetycznej automatyki zabezpieczeniowej oraz metody zabezpieczania zawartości rejestratora zdarzeń przed nieuprawnionym skasowaniem. Rejestratory zdarzeń stanowią integralną część różnorodnych urządzeń elektronicznych, w szczególności urządzeń do zastosowań przemysłowych jak np. urządzenia elektroenergetycznej automatyki zabezpieczeniowej (EAZ). Rejestratory zdarzeń wbudowane w urządzenia EAZ dokonują zapisu w pamięci nieulotnej tych urządzeń danych dotyczących przebiegu realizowanej przez nie funkcjonalności, czynności ruchowych wykonywanych przez personel obsługujący a także stanów w jakich urządzenie znajdowało się w trakcie pracy (np. zanik/powrót zasilania). Ochrona zawartości rejestratora zdarzeń w urządzenia EAZ jest szczególnie istotna, gdyż w przypadku sytuacji awaryjnych pozwala odtworzyć sekwencję zdarzeń poprzedzających wystąpienie danej awarii. Pozwala również stwierdzić co było przyczyną zaistnienia takiej sytuacji: awaria sprzętu, nieprawidłowa konfiguracja pracy urządzenia czy też błąd ludzki.Zawartość rejestratora zdarzeń urządzeń EAZ może być przechowywana w pamięci RAM podtrzymywanej bateryjnie a także w pamięciach nieulotnych typu FRAM lub FLASH. Dane rejestratora zdarzeń przechowywane są w pamięci nieulotnej do chwili wykonania twardego startu urządzenia. Procedura twardego startu wykonywana jest warunkowo podczas włączenia zasilania urządzenia i polega na ustawieniu wartości fabrycznych nastaw urządzenia. Kasowane są przy tym wszelkiego typu informacje przechowywane w pamięci nieulotnej, w tym dane dotyczące rejestratora zdarzeń. Po wykonaniu procedury twardego startu następuje inicjacja pamięci danych operacyjnych urządzenia nowo ustawionymi wartościami, po czym urządzenie rozpoczyna realizację zaprogramowanej funkcjonalności. W trybie normalnego włączenia urządzenia wykonywana jest ... więcej»

System mechatroniczny do badań struktur elektroniki organicznej (Tadeusz KOZŁO WSKI, Roman WOŹNIAK, Janus z WÓJCIK, Jerzy ZAJĄC)
Kontrola jakości procesów produkcyjnych elektroniki organicznej, również w przypadku produkcji małoseryjnej i prototypowej wymaga opracowania metod pomiarowych mogących charakteryzować właściwości fizyczne wytwarzanych elementów np. w strukturach próbnych. Aby scharakteryzować badane struktury konieczne jest wykonywanie pomiarów odizolowanych rezystorów, tranzystorów FET, a także kondensatorów i wyznaczanie stąd parametrów materiałowych i technologicznych. Problem połączenia badanych struktur do urządzeń pomiarowych można rozwiązać opracowując odpowiednie probery do ostrzowego badania struktur w atmosferze ochronnej. W Instytucie Tele- i Radiotechnicznym skonstruowano model probera umożliwiający elektryczne sprzęganie urządzeń pomiarowych z badanymi strukturami organicznymi na podłożach płaskich. W przyszłości zostanie opracowany model drugiej wersji probera do badania struktur na podłożach zakrzywionych mocowanych na bocznej powierzchni walca. Prober jest wyposażony w podsystem wizualizacji z kamerą i zmotoryzowanym obiektywem o zmiennym powiększeniu i ostrości, a także z automatycznym doborem ekspozycji kamery. Pozwala to na łatwą pracę w komorze rękawicowej z atmosferą ochronną. Prober sterowany jest przez autonomiczny sterownik przemysłowy mogący współpracować z nadrzędnym systemem pomiarowym. Architektura probera Opracowany model probera (rys. 1) zawiera podsystem wizualizacji, kompletne napędy w osiach X, Y, Z i... więcej»

Uniwersalny izolowany zasilacz AC /DC (Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)
W dzisiejszym przemyśle elektroenergetycznym liczą się sterowniki zabezpieczeniowe których wspólną cechą są niewielkie wymiary i wysoka wytrzymałość na zaburzenia elektromagnetyczne - w szczególności na impulsowe zakłócenia udarowe SURGE i szybkozmienne zakłócenia impulsowe BURST. Przedstawiony w poniższym artykule uniwersalny układ izolowanego zasilacza jest kompromisem pomiędzy niewielkimi gabarytami, niewygórowaną ceną, a odpornością na zaburzenia EMC i wysoką sprawnością. Zaprezentowany na schemacie z rys. 1 zasilacz jest układem o topologii flyback. Rozwiązania tego rodzaju są rozwiązaniami stosowanymi z reguły w aplikacjach wymagających izolacji galwanicznej i wysokiej sprawności. Od rozwiązań klasycznych (transformatorowych) różnią się przede wszystkim zdecydowanie mniejszymi gabarytami zastosowanego transformatora impulsowego i wagą całego rozwiązania. Podstawową wadą konstrukcji tego typu jest duża ilość elementów niezbędnych do zbudowania zasilacza, stosunkowo duża złożoność układu, a także właściwy dobór parametrów zastosowanego transformatora impulsowego. W trakcie konstrukcji zasilacza zdecydowano się na możliwie duże ograniczenie elementów konstrukcyjnych - w związku z tym zastosowano układ scalony sterownika przetwornicy wraz z wbudowanym kluczem - DPA422. Tego typu układy scalone pozwalają z reguły na znaczne zmniejszenie ilości elementów po stronie pierwotnej zasilacza i jednoczesne ograniczenie kosztów rozwiązania - z reguły jednak sprawność takiego obwodu maleje ze względu na zintegrowany klucz przetwornicy. W zastosowanym sterowniku rezystancja włączonego klucza RDSon jest na poziomie nie wyższym niż 4,6 Ω, co skutku... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych (Tomasz Kraszewski)
Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Trawienie włókien światłowodowych w celu odsłonięcia rdzenia do zastosowania w bioczujnikach z wykorzystaniem modów galerii szeptów (Karolina Orłowska, Zuzanna Kowalska, Magdalena Morawiec, Piotr Pałetko, Anna Sankowska, Teodor Gotszalk)
Obecnie nowoczesne metody diagnostyczne stanowią obiekt zainteresowań zarówno grup naukowo-badawczych na całym świecie, jak i przeciętnych użytkowników, takich jak lekarze i ich pacjenci, pracownicy stacji epidemiologicznych czy inżynierowie nadzorujący linie produkcyjne w przemyśle spożywczym i chemicznym. Rozwój technologii bioczujników otwiera nowe możliwości prowadzenia badań o skróconym czasie i obniżonych kosztach. Wraz z powstaniem bioczujników pojawiły się nowe możliwości związane z szybkością i jakością przeprowadzanych analiz, mobilnością, a także z niewielkimi rozmiarami czujników. Duże zainteresowanie bioczujnikami doprowadziło do rozwoju wielu technik detekcji ze szczególnym uwzględnieniem metod bezznacznikowych (ang. labelfree) wykorzystujących m.in. tranzystory polowe FET i nanodruty [1, 2], mikrodźwignie [3], mikrowagi [4] i kamertony kwarcowe [5], Bardzo dużo takich technik stanowią techniki optyczne, w których wykorzystuje się powierzchniowy rezonans plazmonowy [6], światłowody włókniste i planarne [7], mody galerii szeptów (ang. whispering gallery modes, WGM) [8] czy techniki interferometryczne [9-11]. Techniki bezznacznikowe (ang. label-free) charakteryzuje szereg zalet w porównaniu z konwencjonalnymi metodami opartymi na zastosowaniu markerów. W metodach tych nie dochodzi do niepożądanej modyfikacji badanej substancji przez znacznik, badania mogą być prowadzone w czasie rzeczywistym, a czujniki są stosunkowo proste i mogą być wytwarzane niskim kosztem. Wytworzenie bioczujnika, który spełniałby wysokie wymagania odnośnie selektywności i czułości pomiarowej wymaga szerokiej wiedzy z zakresu elektroniki, optoelektroniki, chemii, biologii i biochemii. Konstrukcja czujnika powinna umożliwiać komercjalizację i być konkurencyjna wobec innych bioczujników dostępnych na rynku. Należy zaznaczyć jednocześnie, że wśród tak wielu propozycji konstrukcji czujnikowych nie ma możliwości wybrania najlepszego i uniwersal... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej (Michał Łabowski, Piotr Kaniewski)
Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

People counting vision system based on ARM processor programmed using Simulink environment (Tomasz Marciniak, Agata Chmielewska, Adam Dąbrowski, Albert Malina)
Modern video monitoring systems provide advanced image processing and support safety of people in the urban area [1, 2]. These situations include: analysis of human silhouettes, human movements [3], face detection and face recognition [4, 5], collecting information on people entering and/or leaving a building [6], or testing and estimating the number of people in urban areas [7]. Commercial systems used for people counting, described in next section, become more and more popular. They are mainly used to control flow of people in public buildings (e.g., shopping galleries), giving a lot of useful information in realtime such as e.g.: the sale success, the most popular pedestrian track, or the rush hour [3]. A real-time system presented in this paper monitors the entrance to a building and determines the number of people crossing the gate observed by a digital video camera. The required video processing operations have been realized in the MATLAB/Simulink environment, that had been chosen because of its widespread use as well as flexible simulation and experimental testing possibilities. In addition, this environment contains a lot of libraries, which support image processing operations - the Computer Vision System Toolbox [8] with e.g. People Tracking models, implemented and modified in our system. In our research we would like the system to be autonomous, so we have implemented our algorithm for bi-directional people counting on Raspberry Pi microcomputer [9]. As it is shown in Fig. 1, the designed system detects people passing under a camera positioned vertically down. The video signal from the camera is delivered to the Raspberry Pi microcomputer and this device performs all calculations on the input data. The fast prototyping [10-13] and implementation on this hardware is supported by Matlab 2013b and Simulink Support Package for Raspberry Pi Hardware library [14]. The paper presents important features of the prepared p... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Model przepływomierza tarczowego (Paweł Pliszka, Elżbieta Wróblewska, Artur Andruszkiewicz)
W Instytucie Techniki Cieplnej i Mechaniki Płynów Politechniki Wrocławskiej prowadzone są prace dotyczące wyznaczenia charakterystyk metrologicznych różnego typu przepływomierzy. Zbudowano m.in. model przepływomierza oscylacyjnego i wyznaczono jego charakterystykę [1], przeanalizowano pracę przepływomierza ultradźwiękowego w niestandardowych warunkach pracy i dla wysokiej temperatury przepływającego płynu [2]. Aktualnie prowadzone są prace nad przepływomierzem tarczowym. Zbudowano jego model, a także wyznaczono jego charakterystyki metrologiczne. Przepływomierze te charakteryzują się tym, że można je wykorzystywać do pomiarów płynów zabrudzonych zanieczyszczeniami stałymi, a także pęcherzami gazu [3]. Można je również stosować w pomiarach płynów o wysokich ciśnieniach i temperaturach, a jego dokładność jest rzędu dokładności klasycznych przepływomierzy np. zwężkowych. Celem artykułu jest opisanie budowy przepływomierza tarczowego wraz ze sposobem rejestracji sygnału od siły naporu hydrodynamicznego płynu na tarczkę, a także przedstawienie przykładowych jego charakterystyk. Model przepływomierza tarczowego Rysunek 1 przedstawia szkic przepływomierza tarczowego, który służy do wyprowadzenia równania pomiaru. Pisząc równanie Bernoulliego dla przekrojów 1-1 i 2-2, równanie ciągłości oraz wzór na siłę naporu na tarczkę kołową umieszoną w środku rurociągu, strumień objętości czy masy przepływającego płynu w rurociągu można wyznaczyć z równania 1 lub 2 [4]: (1) (2) q =  ... więcej»

Wielokrotny wybór czyli rozważania o pewnych pytaniach testowych (Wojciech Przyłuski )
Wśród pytań zamkniętych (czyli takich, w których testowany wybiera odpowiedzi spośród pewnej liczby konkretnie sformułowanych propozycji) najczęściej spotykanymi pytaniami - obok pytań polegających na wskazaniu jednej poprawnej odpowiedzi - są tzw. pytania wielokrotnego wyboru. Słowo "wielokrotnego" jest przy tym różnie interpretowane przez autorów publikacji związanych z tematyką testowania; może oznaczać zarówno liczbę proponowanych do wyboru opcji, jak i liczbę możliwych prawidłowych odpowiedzi. Każdy chyba odpowiadał kiedyś na pytania polegające na wyborze właściwej odpowiedzi. Polega to na tym, że dostaje się kilka, rzadziej kilkanaście możliwości do wyboru i należy zaznaczyć jedną lub kilka odpowiedzi uznanych za prawidłowe. Możliwość zaznaczenia więcej niż jednej odpowiedzi zależy od treści polecenia zawartej w pytaniu lub od formy graficznej pytania, która sugeruje bądź wręcz determinuje (testy komputerowe) zasady udzielania odpowiedzi. Spośród kilku polskich i angielskich nazw proponowanych w literaturze dla pytań wyboru najtrafniejsze wydają się określenia z pracy Marka Hyli [1]. Wymienia on dwa typy pytań wyboru: 1. pytania jednokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Single Answer, MCSA), 2. pytania wielokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Multiple Answer, MCMA). Dopiero te dwie polskie i odpowiadające im angielskie nazwy w pełni oddają sens jaki chcemy przypisywać tym typom pytań. W pierwszej chwili różnica pomiędzy tymi typami pytań wydaje się niewielka. Okazuje się jednak, że wielość możliwych do wskazania odpowiedzi stwarza w sferze weryfikacji wiedzy zupełnie nowe, nieporównywalne z pytaniami jednokrotnego wyboru, możliwości, rodząc jednocześnie wiele dodatkowych problemów. Tymi właśnie problemami chcemy się zająć, przy czym używać będziemy sformułowań: "pytanie wielokrotnego wyboru" i "wielokrotny wybór" w sensie drugiej z podanych wyżej definicji. Test t... więcej»

Projekt wbudowanej dwupasmowej anteny GSM
Artykuł prezentuje łączne zastosowanie oprogramowania CST MICROWAVE STUDIO ® (CST MWS), Antenna Magus i Optenni Lab w celu poprawienia konstrukcji urządzenia monitorującego pracującego w standardzie GSM. Zadanie polegało na zastąpieniu typowej obudowanej anteny katalogowej zintegrowaną anteną drukowaną w celu zmniejszenia kosztów produkcji i kosztów materiałowych. Nowa antena musiała pracować w standardowych pasmach GSM 900 MHz i 1800 MHz oraz musiała korzystać z istniejącego podłoża i warstw metalizacji, bez zmiany wielkości płytki i układu ścieżek poza obszarem samej anteny. Nowa, zintegrowana antena została zaprojektowana z wykorzystaniem aplikacji Antenna Magus w połączeniu z oprogramowaniem CST MWS co pozwoliło uniknąć niepożądanych sprzężeń i zapewnić pracę anteny w żądanych pasmach częstotliwości. Program Optenni Lab został wykorzystany do zaprojektowania układu dopasowującego. Do czego owcy potrzebna antena? Firma "ETSE electronics" z miasta Stellenbosch w RPA to ekspert w zakresie urządzeń i systemów do łączności w pasmach mikrofalowych i RF. Konstruktorzy z ETSE opracowali produkt nazwany "Celmax collar". Jest to urządzenie śledzące systemu GPS noszone przez wybrane owce wchodzące w skład większego stada. W przypadku próby kradzieży lub innego niebezpieczeństwa spłoszone owce zaczynają biec. Urządzenie wykrywa przyspieszenie i powiadamia hodowcę przez wiadomość SMS wysyłaną przez lokalną sieć komórkową GSM. Na rysunku 2 pokazano pierwotną konstrukcję urządzenia z typową anteną GSM zamontowaną na płytce PCB i połączoną przez przepust z układem scalonym RF zamontowanym na drugiej stronie płytki. Częstotliwości pracy urządzenia to standardowe pasma GSM 900 (890 MHz - 960 MHz) i GSM 1800 (1710 MHz - 1879.8 MHz). Antenna Magus i CST MWS zostały użyte do zastąpienia pierwotnej anteny drukowaną anteną dwupasmową, bez zmiany układu ścieżek i wymiarów PCB. Podłoże wykonane jest z 4 warstw laminatu FR4 o przenikalno... więcej»

INTERNETOWA POLONIA a nowe narzędzia edukacji i promocji kultury narodowej na bazie szerokopasmowego dostępu do Internetu (Andrzej M. Wilk)
Polska - Polonia i Polacy za granicą Polska w czternastym roku trzeciego tysiąclecia, w ćwierć wieku od transformacji ustrojowej przeżywa kolejny trudny okres w swej historii. W wyniku dwudziestu pięciu lat transformacji, gospodarka Polska stała się silnie asymetryczna własnościowo w stosunku do naszych głównych partnerów gospodarczych, co, obok typowych tego skutków dla krajowej gospodarki, powoduje również stały, znaczny odpływ kapitału za granicę. W połączeniu z rosnącym poziomem długu publicznego, zbliżającym się do krytycznej dla budżetu granicy i uzależniającym Polskę od życzliwości instytucji finansowych, powstała groźna mieszanka czynników, ograniczająca szanse rozwojowe i pole manewru każdego kolejnego rządu. Brak Polskich lokomotyw gospodarczych, generujących zapotrzebowanie na kooperację i powstawanie łańcuchów zaopatrzeniowych, złożonych w dużej części z małych i średnich krajowych przedsiębiorstw, utrudnia również proces powstawania i rozwoju tych firm w Polskiej gospodarce. Rezultatem tych wieloletnich procesów jest utrata znacznej liczby miejsc pracy, będąca również wynikiem automatyzacji wielu procesów produkcyjnych i usługowych. Powszechnie krytykowana, niesprzyjająca krajowym firmom, praktyka administracyjna i skarbowa, utrudnia również ich rozwój, pogłębiając brak pracy, powodujący ograniczenie perspektyw życiowych, szczególnie wśród młodych osób, wkraczających na rynek pracy. Skutecznie zniechęca ich również do podejmowania na większą skalę wysiłku poszukiwania miejsc pracy w Kraju, lub inicjowania działalności gospodarczej, mimo relatywnie dobrego przygotowania zawodowego i determinacji w działaniu. W połączeniu ze zmianami cywilizacyjnymi, dotyczącymi wzorców życia i pracy, skutkuje to narastającą w wielu środowiskach społeczną frustracją, dramatycznym spadkiem liczby urodzeń w Polsce i nasiloną, masową emigracją młodych i aktywnych zawodowo osób. Tam też, na emigracji, przychodzi na świat kolejne (cz... więcej»

Wykorzystanie Połączeń Szerokopasmowych w Celach Utrzymania Stałego Rozwoju (Dr Hamadoun I. Touré)
Światowy Dzień Telekomunikacji i Społeczeństwa Informacyjnego 2014 jest obchodzony w 149 rocznicą ustanowienia Międzynarodowego Związku Telekomunikacyjnego w 1865 roku. Bogata historia Międzynarodowego Związku Telekomunikacyjnego przedstawia jego istotną rolę we wdrażaniu najbardziej zaawansowanych i innowacyjnych środków komunikacji na świecie, od czasów wynalezienia telegrafu aż do pojawienia się Internetu i systemu połączenia szerokopa smowego, które umożliwiają kontakt z przyjaciółmi i rodziną w każdej chwili. Prawo do komunikowania się jes... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Time-delay of arrival estimation from voice signal (Damian Cetnarowicz, Adam Dąbrowski)
This article concerns the issue of the sound source localization in order to automate video surveillance or improve the quality of voice recording. The sounds in general, are a rich medium of convenient communication. The sounds in organized human activities allow for spatial orientation. The case of the voice message is associated with a variety of techniques that involve the recording and transmission of voice, in order to transmit it to the recipient. In this way the voice message can be listened to in a distant location or can be played back at a later time. It is particularly important that the intelligibility of the message conveyed by voice should be high. Speech intelligibility can be limited by properties of equipment, recording or playback conditions. Current technological development provides a variety of solutions to acquire, compress and transmit the speech signals with almost no noticeable reduction in quality, which is confirmed by a subjective assessment. The speech intelligibility very often is reduced by disturbing sounds including traffic noise and other speaking persons. In literature it is called the “cocktail party" problem. It is difficult to cancel the disturbing sounds by filtering in frequency domain because the spectrum of the disturbing sounds overlaps with the spectrum of voice. Using statistical independence the signals can be separated by blind source separation (BSS) methods. Comprehensive review of BSS methods can be found in the book [1]. The authors of this article have already studied the properties of blind separation [2] and its usefulness in applications for hearing aids [3] or for automatic speech recognition in human-machine interfaces [4] [5] [6]. The effective algorithms for independent component analysis (IC A) were considered in [7]. The directional filtering also was investigated for application of speech intelligibility improvement [8]. It was noticed, that the performance o... więcej»

Realization of Digital Audio Signal Interpolator Using Linear-Phase IIR Filter (Krzysztof Piotr Sozański)
In a digital class D power amplifier, depicted in Fig. 1, the output pulse power amplifier works as a one-bit D/A converter. We assume that the amplifier input signal is in the CD player standard, i.e., is sampled with rate fs = 44.1 ksamples/s. Thus, its approximate frequency band covers 0...fb = 0...20 kHz. In order to increase the resolution of the amplifier, noise shaping and oversampling techniques are used [9]. The chosen signal oversampling ratio R = 8 is a compromise between the power MOSFET switching losses (for the minimization of which R should be also minimized) and the selectivity of the output passive low-pass smoothing filter. The chosen switching frequency is R ⋅ fs=352.8 kHz. During the signal interpolation process, the signal dynamic ratio can be decreased by adding mirror signals to the input signal. For high quality audio signals the required dynamic range is near 90 dB. The aim of this paper is to present a new audio signal interpolator using LF IIR filter. The interpolator is designed for Class-D audio power amplifier. Signal Interpolator A signal interpolator made up of an upsampler and an anti-imaging low-pass filter for integer valued conversion factor R is depicted in Fig. 2. The low-pass filter H(e jωTs/R), also called the interpolation filter, removes the R-1 unwanted images in the spectra of upsampled signal w(kTs/R). Fig. 1. Block diagram of class D digital audio power amplifier Rys. 1. Schemat blokowy wzmacniacza mocy klasy D Fig. 2. Signal interpolator Rys. 2. Interpolator sygnałów DPWM Noise Shaping Circuit Signal Interpolator x(nTs) fs=44.1 kHz +UZ L1 L2 C1 C2 C3 ZL Gate Drivers 8fs=352.8 kHz fc=352.8 kHz H(ejTs/R) x(nTs) x R y(kTs/R) fs Rfs R w(kTs/R) h(kTs/R) El ektronika 4/2014 47 An illustration of interpolating process for R = 3 is depicted in Fig. 3. After the upsampling process, the out-of-band signal (unwanted images) is a source of interference ... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect (Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)
W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Układy do kontroli połączeń elektrod z pacjentem w badaniach elektrodiagnostycznych (PIOTR KARDYŚ, MAREK PORTALSKI)
W jednym z artykułów prezentowanych na łamach "Elektroniki" [7] w cyklu poświęconym bezprzewodowym systemom telemetrycznym, przedstawiliśmy moduł pomiarowy EE G/EKG przeznaczony do badań zdalnych. Moduł ten, podobnie jak inne urządzenia diagnostyczne korzystające z elektrod pomiarowych przylepianych bądź przykładanych do ciała osoby badanej, wymaga utrzymania rezystancji przejściowych, a ściślej impedancji na styku elektroda/ elektrody-tkanka w pewnych z góry ustalonych granicach, celem zapewnienia prawidłowej pracy urządzenia i uzyskania niezafałszowanych wyników pomiaru. W przypadku badań elektroencefalograficznych (EE G), rezystancje przejściowe elektrod przykładanych do głowy pacjenta nie powinny przekraczać 5 kΩ [10], w przeciwnym razie do obwodów wejściowych wzmacniacza dotarłyby zakłócenia indukowane w otoczeniu pacjenta (przede wszystkim z sieci energetycznej), jak również drastycznie wzrósłby poziom szumów. Stosuje się zatem specjalne pasty przewodzące, poprawiające kontakt elektrod ze skórą. W badaniach elektrokardiograficznych (EKG) dopuszcza się nieco większe wartości rezystancji - do 10 kΩ w pomiarach metodą Holtera [1]. Istnieją jednak badania, w których rezystancje przejściowe elektrod przyjmują znacznie większe wartości. Ciekawym przykładem może być badanie za pomocą wariografu, powszechnie, choć niezupełnie słusznie nazywanego "wykrywaczem kłamstw" [6], w którym na palce jednej ręki (zwykle wskazujący i środkowy) zakłada się elektrody suche, pozbawione pasty przewodzącej czy żelu, gdyż w tym wypadku potliwość ciała ma kluczowe dla wyników znaczenie. Wprowadzenie substancji przewodzącej między powierzchnię czynną elektrody a skórę uniemożliwiłoby monitorowanie tego parametru. W takich badaniach rezystancje przejściowe elektrod sięgają dziesiątek, a nawet setek kiloomów, w zależności od wilgotności naskórka i pośrednio od stanu emocjonalnego osoby badanej oraz jej reakcji (ang. GSR, galvanic skin res... więcej»

Porównanie elektrycznych właściwości mikroczujników impedancyjnych wykonanych na podłożach krzemowych i szklanych (Konrad Chabowski, Tomasz Piasecki, Karol Nitsch, Teodor Gotszalk, Andrzej Sierakowski, Piotr Grabiec )
Technologie mikroelektroniczne dają możliwość wykonywania miniaturowych czujników, przyrządów półprzewodnikowych, układów scalonych oraz systemów mikro- i nanoelekromechanicznych. Systemy te, ze względu na bardzo duży stopień integracji, wymagają łączenia ze sobą różnych materiałów i struktur. Jako przykład można wymienić mikrosystemy przepływowe z wbudowanymi czujnikami impedancyjnymi, znajdujące zastosowanie w genomice, proteomice i badaniach komórek [1-3]. Konstruowano również biokompatybilne mikrosystemy przewidziane do zastosowań In vivo w ludzkim organizmie, służące np. do programowanego dozowania leków wraz z monitoringiem jego uwalniania [4] oraz wczesnego wykrywania niedokrwienia serca podczas operacji kardiochirurgicznych [5]. Prostszymi konstrukcjami mikroelektronicznymi są pojedyncze czujniki impedancyjne na jednolitym podłożu z utlenionego krzemu lub szkła, wykorzystywane m.in. do monitorowania wzrostu biofilmu bakteryjnego [6-8] lub, po biochemicznej funkcjonalizacji powierzchni podłoża, służące jako biosensory, które selektywnie detekują obecność analitu w próbce [9, 10]. Innym rodzajem czujników wykonanych w technologii krzemowej są czujniki mikromechaniczne wykonane na mikrodźwigniach krzemowych [11]. Struktury czujników impedancyjnych mogą być wykonane na podłożach dielektrycznych (szkło, polimer) [1-3, 8, 10] bądź na półprzewodniku pokrytym cienką warstwą dielektryka [4, 6, 7]. To drugie rozwiązanie jest interesujące ze względu na to, że daje ono możliwość integracji w jednej strukturze czujnika z układami elektronicznymi niezbędnymi do wykonania pomiaru. Badania prezentowane w artykule dotyczą porównania właściwości czujników impedancyjnych z elektrodami palczastymi o takiej samej geometrii, wykonanych na różnych podłożach: szkle, utlenionym krzemie oraz utlenionym krzemie z elektrodą ochronną. Porównywano zmierzone widma impedancyjne czujników umieszczonych w powietrzu, wodzie destylowanej oraz fizjologi... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Architektura sprzętowego modułu predykcji wewnątrzramkowej Intra dla standardu H.265/HEVC (Andrzej Abramowski, Grzegorz Pastuszak)
Ostatnie lata charakteryzują się gwałtownym rozwojem technologii mobilnych, telewizji cyfrowej oraz szerokopasmowego Internetu. Postępy w tych dziedzinach wiążą się z dość znaczącym wzrostem ilości przesyłanych informacji wideo, co znacząco obciąża obecnie istniejące łącza telekomunikacyjne. W efekcie bardzo duża liczba firm oraz instytucji naukowych pracuje nad sposobami ograniczenia rozmiaru tego typu danych oraz wymaganej przez nie przepływności. Zarazem współcześni konsumenci są zainteresowani zdecydowanym wzrostem jakości oglądanych materiałów. Aby pogodzić te sprzeczne zapotrzebowania w 2010 r. grupa ekspertów Joint Collaborative Team on Video Coding rozpoczęła prace nad nowym standardem kompresji wideo pod kodową nazwą High Efficiency Video Coding (HEVC). Za cel postawiono sobie ograniczenie o połowę przepływności zakodowanej sekwencji wideo w porównaniu do H.264/AVC (Advanced Video Coding), przy jednoczesnym zachowaniu jakości ocenianej miarami subiektywnymi. Rozwój standardu trwał ponad trzy lata i zakończył się ostatecznym jego przyjęciem w 2013 r. przez ISO (International Organization for Standardization) i ITU Telecommunication Standardization Sector jako H.265/HEVC ([1]). Składnia standardu H.265/HEVC wykorzystuje regularne struktury drzewiaste, zapisywane w strumieniu wyjściowym. W porównaniu do jego poprzednika, H.264/AVC, istotnie rozbudowana została predykcja wewnątrzramkowa (Intra), predykcja międzyramkowa (Inter) oraz algorytmy transformacji. Wiąże się to ze zwiększoną złożonością obliczeniową, jednak wybrane rozwiązania powinny umożliwić zrównoleglenie znaczącej części operacji. W chwili obecnej opracowywane są dalsze rozszerzenia m. in. wersja skalowalna oraz dostosowana do kodowania sekwencji trójwymiarowych. Predykcja wewnątrzramkowa (Intra) Jedną z podstawowych technik w kodowaniu wideo jest predykcja wewnątrzramkowa. Wykorzystuje ona uprzednio zakodowane próbki z danej ramki do przewidywania poprze... więcej»

Demonstrator lekkiego monoimpulsowego radaru trójwspółrzędnego bliskiego zasięgu pasma L (Adam Konrad Rutkowski, Adam Kawalec)
Systemy radarowe bliskiego i bardzo bliskiego zasięgu mają bardzo duże znaczenie w zastosowaniach powszechnych jak i w zastosowaniach specjalnych. Należą do nich między innymi systemy tak zwanej obrony aktywnej obiektów przed pociskami przeciwpancernymi. Celem obrony aktywnej jest uzyskanie co najmniej jednego z następujących efektów: - pocisk przeciwpancerny atakujący broniony obiekt zostanie zniszczony zanim dotrze do celu, - tor lotu pocisku przeciwpancernego zostanie zmieniony tak, że minie atakowany obiekt, - pocisk przeciwpancerny dotrze do atakowanego obiektu, ale zostanie uszkodzony w takim stopniu, że jego głowica bojowa nie przebije pancerza osłaniającego broniony obiekt. Osiągnięcie tych efektów wymaga jak najwcześniejszego uzyskania wiarygodnej informacji o tym, że chroniona strefa została naruszona, a obiekt jest atakowany. Na informację tę składają się: liczba atakujących pocisków, chwilowy kierunek i zwrot lotu pocisków, chwilowa odległość do każdego z tych pocisków. Do detekcji faktów ostrzelania pojazdu pociskami przeciwpancernymi mogą być stosowane sensory optoelektroniczne oraz elektromagnetyczne, a wśród nich lekkie urządzenia radiolokacyjne [1-3]. Systemy obrony, a w tym obrony aktywnej funkcjonują w warunkach nieprzewidywalnego zagrożenia oraz głębokiego deficytu czasu. W wielu przypadkach czas od chwili wystrzelenia pocisku przeciwpancernego do momentu dotarcia jego do celu nie przekracza 1,5 sekundy. W tym czasie system ochrony powinien wykryć fakt ostrzelania, ocenić stopień niebezpieczeństwa, wybrać najlepszy sposób przeciwdziałania oraz w odpowiednim momencie uruchomić środki obrony aktywnej, tak zwane destruktory, zwalczające atakujący pocisk przeciwpancerny. W przypadku systemów monitorowania obszaru pracujących w warunkach znacznego niedostatku czasu, duże znaczenie mogą mieć systemy radarowe w wersjach monoimpulsowych, zbudowane przy użyciu układów natychmiastowego pomiaru fazy NPF, układów n... więcej»

Implementacje FPGA modułów kwantyzacji i dekwantyzacji w sprzętowych koderach wideo (Grzegorz Pastuszak)
Standard H.264/AVC [1] jest powszechnie używany w różnych aplikacjach komunikacyjnych oraz w rejestracji wideo. W stosunku do poprzednich standardów pozwala on na redukcję budżetu bitowego do 50% przy zachowaniu podobnej jakości zdekodowanego materiału wideo. Ostatnie prace w dziedzinie kompresji wizyjnej doprowadziły do opracowania kolejnego standardu nazwanego H.265/HEVC [2]. Efektywność kompresji uzyskiwana przy zastosowaniu nowych technik jest zwiększona nawet dwukrotnie w stosunku do standardu H.264/AVC. Ulepszenia algorytmu dotyczyły wielu modułów i sposobu organizacji danych. Jednakże moduły kwantyzacji i dekwantyzacji są w obu standardach podobne. Stąd techniki projektowania opracowane dla standardu H.264/ AVC mogą być z powodzeniem przeniesione do H.265/HEVC.Rysunek 1 przedstawia diagram blokowy kodera wideo z wyróżnionymi modułami kwantyzacji i dekwantyzacji. Współczynniki transformaty są kwantowane, aby usunąć mniej istotne informacje przed zakodowaniem entropijnym. Dekwantyzacja jest konieczna do rekonstrukcji treści wideo dla kolejnych bloków, makrobloków i obrazów kodowanych zarówno w trybie predykcji wewnątrzobrazowej (INTRA) i międzyobrazowej (INTER). Analiza kosztu bitowego i zniekształceń (RD) używana do wyboru trybu umożliwia uzyskanie dużej efektywności kompresji. Z drugiej strony koszt obliczeniowy zwiększa się, ponieważ wiele trybów musi być przetworzonych w pętli rekonstrukcji zawierającej kwantyzację i dekwantyzację. By uzyskać wydajność czasu rzeczywistego koder sprzętowy powinien wykorzystać pętlę rekonstrukcji o dużej przepustowości. W szczególności liczba modułów kwantyzacji i dekwantyzacji musi być zwiększona celem przetwarzania równoległego. W konsekwencji ich udział w potrzebnych zasobach sprzętowych staje się znaczący. W literaturze opisano wiele architektur kwantyzacji i dekwantyzacji [3-17]. Większość z nich stosuje bezpośrednie mapowanie kolejnych operacji na kaskadę złożoną z układu mnożące... więcej»

Analiza układu integratora kluczowanego z nieidealnym kluczem (Grzegorz Domański, Bogumił Konarzewski, Robert Kurjata, Janusz Marzec, Krzysztof Zaremba , Michał Dziewiecki, Marcin Ziembicki, Andrzej Rychter)
Jednym z powszechnie stosowanych układów odbioru sygnału z fotodiod w systemach dyfuzyjnej tomografii optycznej [1] jest układ integratora kluczowanego [2]. Szum w takim układzie ma kilka przyczyn, a jedną z nich jest nieidealny charakter klucza. Rzeczywisty, nieidealny klucz, wstrzykuje ładunek podczas swojego przełączania oraz wykazuje skończoną rezystancję w stanie otwarcia. Ten drugi czynnik, czyli rezystancja klucza, może mieć znaczenie wszędzie tam, gdzie ze względu na niski poziom sygnału, stosowane są długie czasy integracji prądu z fotodiody, a więc na przykład w systemach tomografii optycznej. Analiza szumowa integratora kluczowanego sprzężonego z fotodiodą Ogólny schemat układu fotodiody dołączonej do integratora kluczowanego przedstawiono na rys. 1.Zawiera on fotodiodę podłączoną do wejścia odwracającego wzmacniacza operacyjnego. W pętli sprzężenia zwrotnego umieszczony jest klucz K o rezystancji Rf w stanie rozwarcia oraz dołączona równolegle pojemność Cf . Załóżmy, że na fotodiodę padają w losowych chwilach fotony, które generują impulsy prądowe ze średnią częstością re. Zgodnie z pierwszym twierdzeniem Campbella [4] średnia wartość sygnału wyjściowego uwy jest równa (1) gdzie he(t) - odpowiedź układu na pobudzenie jednoelektronowe. Wariancja sygnału wyjściowego σ 2uwy jest, zgodnie z drugim twierdzeniem Campbella [4], równa: (2) Analiza odpowiedzi układu w dziedzinie częstotliwości i czasu Dla dowolnej częstotliwości, przy pominięciu wpływu charakterystyki częstotliwościowej... więcej»

Analiza wymagań pamięciowych dla podstawowej jednostki obliczeniowej w sprzętowej implementacji algorytmu dopasowania stereo typu "semiglobal" (Mikołaj Roszkowski, Grzegorz Pastuszak)
Algorytm dopasowania stereo działa na dwóch zrektyfikowanych obrazach przedstawiających jedną scenę. Rektyfikacja oznacza, że jeśli weźmie się pewien piksel na pierwszym obrazie, to odpowiadający mu piksel na drugim obrazie leży dokładnie w tej samej linii poziomej (o tej samej współrzędnej y). Bezwzględna wartość różnicy współrzędnych x odpowiadających sobie pikseli nazywana jest dysparycją i można wykazać że jest ona odwrotnie proporcjonalna do głębokości obiektu w scenie [1]. Celem algorytmu stereowizji jest przypisanie wartości dysparycji do każdego piksela i stworzenie tzw. mapy dysparycji. W literaturze znanych jest wiele algorytmów stereowizji. Generalnie można je podzielić na dwie grupy [2]: algorytmy decydujące jaka dysparycja powinna zostać przypisana do piksela tylko na podstawie jego najbliższego otoczenia (algorytmy lokalne), bądź na podstawie pewnej funkcji zdefiniowanej na całym obrazie (algorytmy globalne). Do pierwszej grupy należą np. algorytmy bazujące na dopasowaniu okna wokół piksela w jednym obrazie do pewnego okna w drugim obrazie za pomocą miar takich jak m.in. SAD [2], CENSUS [3]. Algorytmy te ze względu na swoją prostotę doczekały się wielu realizacji w układach FPGA. Ich implementacje są zazwyczaj szybkie, np. w [4] zaprezentowano system będący w stanie przetwarzać w sekundzie 230 ramek o rozdzielczości 640x480 i 64 poziomach dysparycji. Wadą algorytmów z tej grupy jest jednak zwykle gorsza jakość uzyskanej mapy dysparycji niż w przypadku algorytmów globalnych. W przypadku algorytmów globalnych najpopularniejsze bazują na "propagacji wierzeń" (belief-propagation) [5], bądź algorytmach" graph-cuts" [6]. Są to algorytmy bardzo wymagające pod względem obliczeniowym i przez to rzadko implementowane w sprzęcie. Istnieje jednak grupa algorytmów znajdująca się pomiędzy algorytmami globalnymi i lokalnymi. Są one oparte o programowanie dynamiczne na pewnym podzbiorze całego obrazu. Algorytmem z tej grupy da... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Ocena efektywności dopasowania technologicznego dla struktur FPGA (Marcin KUBICA, Dariusz KANIA, Adam OPARA)
Jednym z kluczowych problemów w rozwoju techniki cyfrowej jest problem ciągłego tworzenia nowych narzędzi syntezy. Niestety dostępne obecnie narzędzia syntezy są dalekie od doskonałości. Uzyskiwane w wyniku syntezy rozwiązania nie zajmują minimalnych zasobów logicznych, jak i nie mają optymalnych właściwości dynamicznych. Istotą efektywnego odwzorowania technologicznego projektowanych układów cyfrowych w strukturach FPGA jest odpowiednio prowadzona dekompozycja funkcji logicznych, która stanowi podstawy teoretyczne efektywnego podziału układu pomiędzy bloki logiczne LUT, zawarte wewnątrz układu FPGA. Producenci układów FPGA zapewniają możliwość konfiguracji bloków logicznych zawartych wewnątrz struktury [1, 13]. Szczególnie istotna jest, zwykle niewielka, liczba wejść bloków logicznych zawartych w układach FPGA, gdyż ona stanowi główne ograniczenie projektowe. Problem efektywnego dopasowania technologicznego jest więc bezpośrednio związany z wyborem odpowiedniej dekompozycji funkcji i tworzenie odpowiedniej ścieżki dekompozycji. Celem artykułu jest przedstawienie metodologii poszukiwania odwzorowania technologicznego, pozwalającej na ocenę efektywności dopasowania technologicznego, która wskazuje na sposób doboru odpowiedniej dekompozycji w kolejnych etapach syntezy projektowanego układu. Przedstawiona w artykule metoda oceny efektywności odwzorowania technologicznego do struktury FPGA, jest dopasowana do zasobów struktury programowalnej scharakteryzowanych liczbą wejść bloków logicznych. Opracowana metoda oceny efektywności odwzorowania jest przeznaczona dla układów FPGA typu tablicowego. Problem dekompozycji funkcji Problem dekompozycji funkcji czy też zespołu funkcji jest tematem wielu prac naukowych [9, 12]. Dekompozycja jest modelem matematycznym podziału projektowanego układu na poszczególne bloki logiczne. Najprostszy model dekompozycji funkcji [4] sprowadza się do wyboru odpowiedniego podziału argumentów funkcji na... więcej»

Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański )
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 Ω. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow‑tie w szczelinowo pobudzany monopol. Z... więcej»

Nieinwazyjna metoda oznaczania glukozy w badaniach cukrzycy (Dagmara Kwapińska, Artur Rydosz, Wojciech Maziarz, Tadeusz Pisarkiewicz, Konstanty W. Marszałek, Beata Olszańska-Piątek)
Cukrzyca w Polsce i na świecie Na całym świecie blisko 347 milionów ludzi żyje ze zdiagnozowaną cukrzycą. W 2004 roku z powodu powikłań wywołanych przez cukrzycę zmarło ok. 3,4 miliona ludzi. Według przewidywań Światowej Organizacji Zdrowia (ang. World Health Organization) w 2030 roku cukrzyca będzie na siódmym miejscu w rankingu chorób bezpośrednio wywołujących śmierć [1]. Szacunkowa liczba osób chorych na cukrzycę w Polsce oscyluje wokół 3 milinów, a liczba osób niezdiagnozowanych szacowana jest na ok. 750 tys. [2]. Powikłania wywoływane przez nieleczoną cukrzycę to: powikłania sercowe (75%), udary mózgu (14%), choroby nerek (8%), choroby oczu (1%) [3]. Cukrzyca jest chorobą metaboliczną związaną z metabolizmem cukrów. Spowodowana jest brakiem bądź niedostateczną ilością insuliny. Generalnie rozróżniamy dwa typy cukrzycy: typ 1 i typ 2. Znany jest jeszcze typ 1.5 oraz cukrzyca ciążowa [4]. Typ 1 (cukrzyca insulinozależna) stanowi ok. 10% wszystkich przypadków zachorowań na świecie. Charakteryzuje się bezwzględną koniecznością przyjmowania insuliny [5]. Symptomy cukrzycy typu 1 to m.in. wzmożone pragnienie, bardzo częste oddawanie moczu, szybkie chudnięcie osoby, która nie jest na diecie, senność, brak apetytu, suchość skóry [6]. Cukrzyca typu 2 (insulinoniezależna) stanowi zdecydowaną większość wszystkich zachorowań na cukrzycę. Dotyka ona ludzi w każdym wieku i określana jest jako choroba cywilizacyjna [1]. W przeciwieństwie do cukrzycy typu 1 nie jest związana z całkowitym brakiem insuliny w organizmie a jedynie z jej niedoborem (ograniczonym produkowaniem insuliny przez trzustkę). W przypadku cukrzycy typu 2 początkowe objawy nie są tak jednoznaczne i często bywają ignorowane. Szacuje się, że blisko 30% ze wszystkich cukrzyków w Polsce żyje jako osoby niezdiagnozowane. Objawy takie jak: suchość skóry, senność, zaburzenie widzenia, zaburzenia erekcji są bardzo często ignorowane. Badania cukru, które wykonuje się metodam... więcej»

Poszukiwanie rozwiązań problemu plecakowego z wykorzystaniem algorytmu genetycznego (Zbigniew Handzel, Mirosław Gajer )
Problem plecakowy należy do klasy problemów NP -zupełnych. Zagadnienia określane mianem NP -zupełnych stanowią klasę problemów obliczeniowych, w przypadku których nie jest znany żaden algorytm rozwiązujący dowolny z tego rodzaju problemów w czasie wielomianowym. Co interesujące, jak dotychczas nikomu nie udało się jeszcze udowodnić, że taki algorytm rozwiązujący któreś z zagadnień NP -zupełnych w czasie wielomianowym nie istnieje. Problem zagadnień NP -zupełnych jest zatem nadal otwarty i wciąż czeka na swe ostateczne rozwiązanie, stanowiąc tym samym chyba najbardziej doniosłą i zarazem jakże niezwykle intrygującą zagadkę informatyki teoretycznej [1]. Co ciekawe, wszystkie problemy obliczeniowe należące do zbioru zagadnień NP -zupełnych są wzajemnie równoważne w tym sensie, że każdy z nich można przetransformować do dowolnego innego w czasie wielomianowym. W związku z tym, gdyby został znaleziony algorytm rozwiązujący w czasie wielomianowym dowolny z problemów NP -zupełnych, wówczas automatycznie wszystkie pozostałe zagadnienia NP -zupełne byłby także rozwiązywalne w czasie wielomianowym. Niestety, jak już uprzednio wspomniano, nikomu nie udało się jeszcze odnaleźć takiego algorytmu bądź udowodnić, że jego znalezienie nie jest możliwe. Istniejący stan rzeczy powoduje, że na potrzeby praktycznych obliczeń zagadnienia NP -zupełne są rozwiązywane jedynie metodami heurystycznymi. W takim wypadku już z góry godzimy się z faktem, że rozwiązanie optymalne nigdy nie zostanie odnalezione, ponieważ prawdopodobieństwo jego przypadkowego natrafienia w procesie poszukiwań wynosi praktycznie zero (choć teoretycznie nie jest to zdarzenie niemożliwe). Natomiast w praktyce poszukujemy rozwiązań suboptymalnych o możliwie jak najlepszej jakości [2]. Tematyka artykułu dotyczy wykorzystania algorytmu genetycznego w celu poszukiwania rozwiązań zagadnienia plecakowego, które należy do klasy problemów NP -zupełnych. Problem plecakowy Załóżmy, że... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Metody syntezy komparatorów z wykorzystaniem języka Verilog w środowisku Quartus II (Marek Gruszewski )
W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przesyłania i przetwarzania informacji. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CPLD) oraz bezpośrednio programowalne macierze bramek (FPGA) [1]. Rozbudowany układ cyfrowy na ogół przedstawia się jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych [2-5]. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy bloków funkcjonalnych w strukturach CPLD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach (оd 64 bitów wzwyż). Znane metody syntezy standardowych bloków funkcjonalnych ukierunkowane są na elementy małej skali integracji (typu bramki) i nie uwzględniają całkowicie właściwości nowej bazy elementowej (CPLD/FPGA). Do takich bloków funkcjonalnych należą m.in. komparatory binarne. Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy, klasycznych oraz nowatorskich [6-10]. W pracach [7, 8] badania przeprowadzono za pomocą środowiska MAX+PLUS II. Ponieważ język AHDL i pakiet MAX+PLUS II nie jest obecnie rozwijany przez firmę Altera, to istotne jest opracowanie metod syntezy komparatorów dużych rozmiarów (pracujących ze słowami dużych rozmiarów) za pomocą współcześnie wykorzystywanych języków opisu sprzętu takich jak: VHDL i Verilog. W ostatnim czasie coraz większą popularność zdobywa język Verilog [11, 12], który wspierany jest przez większość producentów oprogramowania do projektowania układów cyfrowych. W pracy przedstawiono różne metody syntezy komparatorów z wykorzystaniem języka Verilog: równoległe, szeregowe, równoległo- szeregowe, а także równoległo-szeregowe z wykorzystaniem edytora graficznego. Badania eksperymentalne przeprowadzono w środowisku Quartus II firmy Alter... więcej»

60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Per-unit-lenght parameters calculations for cable harnesses (Włodzimierz KALITA, Kazimierz KAMUDA, Dariusz KLEPACKI, Wiesław SABAT)
The mathematical analysis of electrical signal propagation communication interfaces requires a good knowledge about per-unitlength parameters of wires. It is especially important for analysis of circuits operated in high frequency range. The influence of p.u.l parameters on signal propagation in transmission lines describes the telegraph equation. For cable harnesses (with common coupled particular single wires) the p.u.l parameters have a form of R, L, C, G matrices [1-8]. P.U.L parameters calculations - theory The method of moments which belongs to the approximate methods allows the determination of distribution of electromagnetic fields (and their characteristic values) with much lower power consumption of calculations compared to the other methods. The analytical equations describing continuous electromagnetic field (in space and time domain) are transformed into a discrete system of algebraic equations. The quantities characterizing electromagnetic field in dielectric media can be determined from the Poisson equation described for the considered wire system: (1) The electric potential in any point P of homogenous dielectric media with permittivity εm (without wire insulation) considered in 2D (Fig.1a) can be determined from general solution of equation (1) with given conditions: (2) where sμ is a lateral surface of wire. With good conductivity of wires it can be assumed that the potential μ on the perimeter of ( ) ... więcej»

Real-time gas recognition system based on the gas sensor array responses and portable computer Raspberry PI (Ewa Ardanowska, Paweł Kalinowski, Łukasz Woźniak, Grzegorz Jasiński, Piotr Jasiński)
Artificial olfaction systems based on gas sensors and data analysis system are potentially an attractive instruments for a large number of applications, where precise detection of measured volatile compounds is required. They can be used for air quality monitoring [1], in medicine, for detection of diseases [2] or in food industry, i.e. for monitoring the freshness of products [3]. Such instruments, commonly referred to as electronic noses, have the ability for qualitative and quantitative characterization of target gases. In electronic nose systems instead of single sensors, an array of partially selective sensors is used. The response of the array generates a multidimensional dataset, which is then processed using various feature extraction and pattern recognition methods. The most commonly used methods in e-nose systems are Principal Components Analysis (PCA), Partial Least Squares (PLS), Support Vector Machine (SVM) various type of artificial neural networks (ANN) like i.e. Backpropagation Neural Network (BPNN), Radial Basis Function Neural Networks (RBF) or Probabilistic Neural Networks (PNN) [4-5]. Although the properties of electronic noses are very attractive for practical applications, they are often still limited to the laboratory implementations. This is related to the issue of long term stability, which is the most challenging problems in such instruments. The drift phenomenon causes a problem with maintaining the proper ability of precise determination of the target gases in the long period of time. Another issue is connected with complexity of some concepts. The proposed calculation algorithms are rather complicated, i.e. d... więcej»

Lista recenzentów za rok 2013 / The list of the reviewers
Prof. Bohdan V. Andriyevskyy - Politechnika Koszalińska Dr hab. inż. Artur Andruszkiewicz - Politechnika Wrocławska Dr hab. inż. Jerzy Bajorek - Politechnika Rzeszowska Prof. dr hab. inż. Roman Barlik - Politechnika Warszawska, Wydział Elektryczny Dr inż. Mikołaj Baszun - Politechnika Warszawska, Wydział Elektroniki i Technik Informacyjnych Prof. dr hab. Mikołaj Berczenko - Uniwersytet Rzeszowski, Instytut Fizyki Prof. dr hab. inż. Michał Białko - Politechnika Koszalińska Dr inż. Andrzej Brudnik - AGH Akademia Górniczo-Hutnicza w Krakowie Prof. dr hab. Zbigniew Brzózka - Politechnika Warszawska, Wydział Chemiczny Prof. dr hab. Inż. Henryk Budzisz - Politechnika Koszalińska, Wydział Elektroniki i Informatyki Prof. dr hab. inż. Maciej Bugajski - Instytut Technologii Elektronowej, Warszawa Dr hab. Aleksandr Cariow - Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Prof. dr hab. inż. Zygmunt Ciota - Politechnika Łódzka Prof. dr hab. inż. Anna Cysewska-Sobusiak - Politechnika Poznańska, Instytut Elektrotechniki i Elektroniki Przemysłowej Prof. dr hab. inż. Wojciech Czerwiński, Politechnika Wrocławska, Wydział Elektroniki, Mikrosystemów i Fotoniki Prof. dr hab. inż. Adam Dąbrowski - Politechnika Poznańska, Katedra Sterowania i Inżynierii Systemów Dr inż. Jacek Dąbrowski - Akademia Morska w Gdyni, Katedra Elektroniki Morskiej Prof. dr hab. inż. Jerzy Dąbrowski - Szwecja Prof. dr hab. inż. Andrzej Demenko - Politechnika Poznańska Prof. dr hab. inż. Janusz Dobrowolski - Politechnika Warszawska Prof. dr ha. Inż. Andrzej Dobrucki - Politechnika Wrocławska, Instytut Telekomunikacji, Teleinformatyki i Akustyki Prof. dr hab. inż. Marek Domański - Politechnika Poznańska D... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»