profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Polowe źródło jonów wodoru (ZDZISŁAW M. STĘPIEŃ)
W 1928 roku Oppenheimer [1] obliczył, na gruncie mechaniki kwantowej, że przy natężeniu pola elektrycznego 20 V/nm elektron w atomie wodoru może tunelować na zewnątrz do próżni. Pierwsze obserwacje polowej jonizacji gazu były obserwowane przez Müllera [2], w skonstruowanym przez niego polowym mikroskopie jonowym (Field Ion Microscope, FIM). Polowy mikroskop jonowy jest mikroskopem projekcyjnym i nie wymaga żadnych układów soczewek. Katoda, jako próbka i anoda, jako ekran stanowią aktywną część układu optycznego. Otrzymany na ekranie obraz jest projekcją, z rozdzielczością atomową, powierzchni emitera. W obecności gazu pod ciśnieniem rzędu 10-3Pa, którym może być He, Ar, Ne, Xe lub H2, oraz po przyłożeniu pola elektrycznego o natężeniu kilkudziesięciu V/nm (minus na ekranie), w pierwszej fazie, na najbardziej eksponowanych atomach powierzchni emitera, atomy gazu ulegają adsorpcji polowej. W drugiej fazie, nad tymi zaadsorbowanymi atomami ulegają jonizacji polowej zbliżające się atomy gazu. Po jonizacji zac... więcej»

Wymagania konstrukcyjne dla urządzeń elektroenergetycznej automatyki zabezpieczeniowej zgodnych z postanowieniami dyrektyw WE (Jerzy Chudorliński)
Elektroenergetyczna automatyka zabezpieczeniowa EAZ obejmuje zespół urządzeń przeznaczonych do: kontroli procesów wytwarzania, przesyłania, rozdzielania i użytkowania energii elektrycznej. Odbywa się to poprzez sterowanie aparaturą łączeniową i zabezpieczania elementów systemu elektroenergetycznego. Ważna też jest rejestracja stanów pracy obiektów oraz wizualizacja podstawowych parametrów elektrycznych obiektów systemu. Od tych urządzeń wymaga się wysokiej niezawodności podczas wykonywania zadań w całym okresie eksploatacji, jak i stabilnej pracy niezależnej od czynników środowiska zewnętrznego. Jednym z najważniejszych wymagań jest wybiórczość i czułość działania zabezpieczeń, z wbudowanymi algorytmami automatyki. Pozwala to na selektywne wyłączanie odcinków linii lub obiektów elektroenergetycznych. Automatyka ta powinna zapewniać również bezpieczeństwo personelu obsługującego niezależnie od warunków środowiskowych. Osiąga się to poprzez odpowiednią konstrukcję i instalację zgodną z wymaganiami przepisów prawnych. Dlatego też, urządzenia te powinny być konstruowane zgodnie z aktami normatywnymi dotyczącymi bezpieczeństwa i kompatybilności elektromagnetycznej dla tego typu urządzeń. Aby to osiągnąć urządzenia EAZ powinny być przystosowane do pracy w przemysłowym środowisku elektromagnetycznym, charakteryzującym się dużymi wartościami natężenia prądów i towarzyszących im pól magnetycznych z załączaniem obwodów o dużej indukcyjności i pojemności. Aparatura ta instalowana jest w stacjach elektroenergetycznych i elektrowniach które są typowymi środowiskami przemysłowymi. Urządzenia te typu podlegają ocenie zgodności z dyrektywami niskiego napięcia 2006/95/WE (LVD) i kompatybilności elektromagnetycznej 2004/108/WE (EMC) oraz często z dyrektywą dotyczącą urządzeń i systemów ochronnych przeznaczonych do użytku w przestrzeniach zagrożonych wybuchem 94/9/WE (ATEX). Ostatnio coraz częściej wymagane jest zapewnienie bezpieczeństwa fu... więcej»

Zastosowanie techniki obliczeń ewolucyjnych na potrzeby sterowania procesem magazynowania energii elektrycznej w elektrowniach szczytowo-pompowych. Część 1 - analiza zagadnienia optymalizacyjnego (Zbigniew Handzel, Mirosław Gajer)
W ostatnich latach można było zaobserwować systematycznie narastające zainteresowanie wykorzystaniem energii docierającej do powierzchni ziemi w postaci promieniowania słonecznego w celu produkcji energii elektrycznej z zastosowaniem paneli ogniw fotowoltaicznych [1]. W związku z systematycznie malejącymi cenami ogniw fotowoltaicznych oraz ze zwiększającym się w wyniku postępu technologicznego współczynnikiem sprawności konwersji energii promieniowania świetlnego w energię elektryczną należy w przyszłości spodziewać się istotnego przyrostu wartości mocy zainstalowanej w elektrowniach solarnych. W opinii autorów taki stan rzeczy spowoduje, że w perspektywie najbliższych kilkunastu lat warunki pracy systemu elektroenergetycznego mogą zmienić się diametralnie. Obecnie, w kraju takim jak na przykład Polska, zdecydowana większość energii elektrycznej wytwarzana jest w blokach energetycznych elektrowni cieplnych, które są zasilane różnymi rodzajami paliw kopalnych (głównie jest to węgiel kamienny bądź brunatny, ale także niekiedy również gaz ziemny, olej opałowy lub sucha biomasa). Ponieważ całkowite zapotrzebowanie na moc elektryczną zgłaszane ze strony odbiorców podlega w ciągu doby nieustannym wahaniom, dlatego też całkowita moc generowana w blokach elektroenergetycznych elektrowni cieplnych musi dynamicznie nadążać za tymi zmianami, tak aby w całym systemie elektroenergetycznym zachodził warunek zbilansowania mocy, bez spełnienia którego utrzymanie poszczególnych generatorów w stanie pracy synchronicznej nie byłoby w ogóle możliwe [2]. Gwałtowne wahania poziomu mocy generowanej w blokach elektroenergetycznych elektrowni cieplnych, które posiadają dodatkowo duży zakres zmienności, nie są bynajmniej stanem pożądanym, ponieważ w praktyce wywierają wyraźnie negatywny wpływ na żywotność urządzeń energetycznych, przez co istotnie zwiększają ich poziom awaryjności. Dlatego należy dążyć do stanu, w którym zapotrzebowanie na moc ele... więcej»

The problem of fairness in IEEE 802.11 standard networks (Iwona Dolińska)
The IEEE 802.11 standard network, called also Wi-Fi or WLAN (Wireless LAN) uses wireless medium for local computer communication and Internet access. Such networks have the huge popularity nowadays. They have gained a great success in hotspots, enterprises, university campuses, hospitals, schools, small offices, homes etc. [1], [3]. The WLANs are easy to install and operate. The achievable theoretical throughput and coverage is still growing with every 802.11 standard new amendment. But the wireless networks’ popularity is a source of different kinds of problems. One of them is the wireless medium itself. On the one hand, it entails many additional complications in MAC and PHY layer, what decrease the network real throughput. On the other hand, every station in the WLAN network must compete with the others for the access to the medium. In the most popular standard version 802.11n and in the earlier versions a/b/g only one station in the network can transmit data, the other stations must wait. When two or more stations start transmission at the same time, the collision occurs [6] and the whole frame must be retransmitted. The collisions and retransmissions decrease network throughput much more. And additionally decrease fairness of medium access, what results from DCF (Distributed Coordination Function) method of media access. Wi-Fi networks are the subject of numerous studies, which concern not only possibilities of throughput increasing, but also the problem of fairness, interferences, data protection, security and many others. The problem of fairness seems to be very interesting, because every user would like to utilize network capabilities as efficient as possible. The users would like to have equal access to the shared medium. Nobody likes to wait for data, so any station cannot occupy the radio channel too long. Fairness in WLANs - a survey The fairness in WLAN means that t... więcej»

Stanowisko do badania dźwigni mikromechanicznych wzbudzanych elektromagnetycznie (Wojciech Majstrzyk, Daniel Kopiec, Kamil Raczkowski, Anna Gosiewska, Michał Świątkowski, Andrzej Sierakowski, Piotr Grabiec, Teodor Gotszalk )
Dźwignie mikromechaniczne wykonywane są przeważnie z krzemu monokrystalicznego (Si), tlenku krzemu SiO2 lub azotku krzemu (Si3N4) w postaci belki sprężystej jednostronnie utwierdzonej. Długość tego typu przyrządów wynosi z reguły setki mikrometrów, natomiast grubość może zmieniać się w zakresie od pojedynczych mikrometrów do setek nanometrów. Układy tego typu stanowią zatem systemy MEMS (ang. Micro Electro-Mechanical System) lub NEMS (ang. Nano Electro-Mechanical System). Dźwignię mikromechaniczną modeluje się matematycznie wykorzystując teorię wytrzymałości materiałów, gdzie przyrząd mikromechaniczny opisuje się jako klasyczną belkę jednostronnie utwierdzoną - obowiązują te same prawa i zależności. Z punktu widzenia zastosowań, dźwignie takie mogą pracować jako układy statyczne lub jako układy dynamiczne, inaczej mówiąc - rezonansowe. Stosowane są zazwyczaj jako układy służące do pomiaru sił oddziaływań między cząsteczkami lub jako układy do pomiaru masy oraz jej zmiany [1]. Dźwignie przeznaczone do pracy w trybie statycznym powinny charakteryzować się jak najmniejszą sztywnością. Natomiast dźwignia pracująca w trybie rezonansowym powinna charakteryzować się możliwie wysoką częstotliwością drgań własnych przy zachowaniu niewielkiej sztywności. W wypadku dźwigni zawierających aktuator wychylenia, zakres ich stosowalności rozszerza się o mikro- oraz nanomanipulację. Parametrem wiążącym pomiary sił, masy oraz manipulację jest sztywność. W tym przypadku można zapisać wzór (1), wiążący siłę F działającą na koniec belki z jej ugięciem z w postaci: F = kz (1) Z powyższej zależności wynika również fakt, że drugim istotnym czynnikiem jest pomiar ugięcia mikrodźwigni. W literaturze notuje się bardzo wiele metod detekcji wychylenia końcówki dźwigni, jednak największe czułości oraz rozdzielczości zapewniają metody optyczne, jak na przykład metoda interferometryczna czy natężeniowa [2]. W niniejszej pracy metody optyczne stanowią pod... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Optical spectroscopy of polyazomethine-PCBM nanostructures (Krzysztof P. Korona, Sylwia Grankowska, Agnieszka Iwan, Tatiana Korona, Dorota Rutkowska-Zbik, Maria Kamińska)
For many years scientists work on improvement of solar cell - photovoltaic devices, that convert the radiation of the Sun into electricity. The importance of developing efficient solar cells for providing energy and reducing pollution is obvious. Looking for a cheap material for high-area solar cells, researchers developed cells based on organic polymers. One of the most promising candidates is a mixture of poly(3-hexylthiophene) (P3HT) [1]. However, materials such as P3HT are very sensitive to moisture or to oxygen.An attractive alternative to P3HT could be polyazomethines (PAZ). PAZ, which are conjugated polymers possessing imine bonds (HC=N-), are very promising stable materials. Several groups tried to apply polyazomethines in such devices as OLEDs or organic solar cells [2-4]. The chemical formula of one of the most promising azomethines, 25Th-cardo - based on thiophene and cardo moieties - is drawn in Fig. 1. Conducting conjugated polymers, like azomethine, can be used in bulk heterojunction (BHJ) solar cells. The BHJ solar cells comprise of nanoscale interpenetrating networks of a donor material (in our case PAZ) and an acceptor material. When light creates an exciton in the donor material, it diffuses to the heterojunction and there it dissociates. The electron is transferred to the acceptor and the hole stays in the donor. The separated charges are transported by networks to the electrodes. The most popular acceptor is a fullerene derivative, [6,6]-phenyl-C61 butyric acid methyl ester (PCBM) [5, 6], therefore in our study we used a mixture of polyazomethine and PCBM [7]. Theoretical calculations Theoretical calculations of the electronic spectrum of azomethine were performed by means of time-dependent density functional theory (TD-DFT) with the CAM-B3LYP functional [8] and the def2- QZVP orbital basis set [9]. The G09 program [10] has been used for computing all presen... więcej»

Zastosowanie inspirowanych biologicznie technik obliczeniowych w zagadnieniach związanych z planowaniem produkcji energii elektrycznej (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer, Maciej Kłyś )
Każdy system elektroenergetyczny jest bardzo złożonym obiektem technicznym, na który składają się różnego typu urządzenia wytwarzające energię elektryczną, systemy zapewniające jej przesył i dystrybucję oraz odbiorcy końcowi. Praca każdego systemu elektroenergetycznego polega na ciągłym nadążaniu z poziomem generowanej mocy za nieustannie zmieniającym się zapotrzebowaniem zgłaszanym ze strony odbiorców [1]. Jednym z podstawowych zagadnień optymalizacyjnych rozpatrywanych w ramach badań prowadzonych w obszarze elektroenergetyki jest tzw. ekonomiczny rozdział obciążeń pomiędzy poszczególne bloki energetyczne elektrowni cieplnych. W zagadnieniu tym chodzi o to, aby tak rozłożyć sumaryczną wartość mocy zapotrzebowanej przez odbiorców pomiędzy poszczególne jednostki wytwórcze, aby potrzebna energia elektryczna została wytworzona po możliwie jak najniższym koszcie [2]. Obecnie bardzo duży nacisk kładzie się na wykorzystanie odnawialnych źródeł energii, takich jak między innymi elektrownie wodne, wiatrowe oraz solarne. Przewiduje się, że do roku 2020 aż 20% energii elektrycznej będzie wytwarzane właśnie z wykorzystaniem tego typu źródeł odnawialnych. Ponieważ odnawialne źródła energii elektrycznej wykazują zdecydowanie odmienną specyfikę w porównaniu z tradycyjnymi elektrowniami cieplnymi, ich uwzględnienie w systemie elektroenergetycznym powoduje konieczność przeformułowania zagadnienia ekonomicznego rozdziału obciążeń. W tym wypadku zasadnicza zmiana sprowadza się do tego, że nie wystarczy już dla danego przedziału czasowego wyznaczyć moce, z jakimi powinny pracować poszczególne bloki energetyczne elektrowni cieplnych, ale w zadanym horyzoncie czasowym (równym zazwyczaj jednej dobie) należy opracować kompleksowy harmonogram pracy wszelkiego typu urządzeń generujących moc elektryczną, tak aby potrzebne ilości energii zostały wytworzone po minimalnym możliwym do uzyskania koszcie [3]. Ze względu na duży stopień złożoności każdego ... więcej»

O krzyżowaniu wieloosobniczym w algorytmach ewolucyjnych (Zbigniew Pliszka, Olgierd Unold )
W algorytmach ewolucyjnych (AE) problem krzyżowań wieloosobniczych, czyli takich, w których poddaje się operacji krzyżowania więcej niż dwa osobniki, był sygnalizowany wielokrotnie, czego dowody można znaleźć w podręcznikowych już dziś pozycjach [1], [4] i [5]. Sporą liczbę przykładowych zastosowań czytelnik może znaleźć w [6]. W niniejszym artykule uściślamy pewne stwierdzenia podane w pracy opublikowanej w numerze 5/2014 Elektroniki [3], ale też wskazujemy na problemy związane z eksploracją w przypadku użycia operatora krzyżowania wieloosobniczego. Dla zwięzłości opisów i uniknięcia wielokrotnego powtarzania, przyjmujemy, że w całym niniejszym tekście wszystkie chromosomy mają długość równą n, która to jest dowolną, ale ustaloną liczbą naturalną większą od 2. Krzyżowania dwuosobnicze Krzyżowanie jednopunktowe { } { } K( rt ,rk ,c)a rs ,rq możemy zdefiniować następująco [2]: dla zdefiniowanych chromosomów rt i rk wynikiem krzyżowania przy cięciu w pozycji c jest para chromosomów rs i rq W tym samym artykule, przy dodatkowym założeniu, że chromosomy są binarne, podano wzory na szybkie obliczanie indeksów chromosomów potomnych s i q. - Krzyżowanie wielopunktowe można traktować jako wielokrotne złożenie krzyżowań jednopunktowych [2], a nie jak chcą autorzy [3] jako uogólnienie krzyżowania dwupunktowego (!). Zatem, jeśli { } C = cp ,K,c1 jest zbiorem punktów cięcia, to krzyżowanie p - punktowe jest złożeniem p krzyżowań jednopunktowych: - Krzyżowanie równomierne R, to złożenie krzyżowań jednopunktowych, gdzie miejscami cięcia będą punkty odpowiadające zmianie wartości w wektorze wymiany nazywanym w [3] trzecim osobnikiem, a w [7] wzorcem wymiany. Co najważniejsz... więcej»

Oscylacyjny model sieci neuronowej jako system wbudowany (Wiesław Citko, Wiesław Sieńko )
Celem niniejszego artykułu jest prezentacja pewnego neuromorficznego modelu systemu inteligencji obliczeniowej. Model taki uzyskano przez wbudowanie filtru ortogonalnego, wykorzystującego strukturę hamiltonowskiej sieci neuronowej, w sieć sprzężonych pętli fazowych. Koncepcja wykorzystującą sieci sprzężonych oscylatorów fazowych do implementacji oscylujących modeli neuromorficznych nie jest nowa [1, 2, 3, 4]. Wydaje się jednak, że w/w koncepcja struktury wbudowanej nie jest opisana w literaturze przedmiotu. Hamiltonowskie sieci neuronowe i filtry ortogonalne Jak wiadomo, autonomiczny system hamiltonowski opisany jest równaniem stanu o postaci: (1) gdzie: x - wektor stanu, ... więcej»

System rozpoznawania komend głosowych z zastosowaniem systemu wbudowanego (Paweł Tomasik, Przemysław Barański)
Technologia rozpoznawania mowy znajduje zastosowanie w wielu dziedzinach. Przykładem może być komunikacja osoby niepełnosprawnej z komputerem lub sterowanie wybranymi niekrytycznymi funkcjami w samolocie. Rozpoznawanie mowy zdobywa coraz szersze uznanie w telefonicznych centrach obsługi klienta, gdzie osoba dzwoniąca opisuje swój problem słownie. System automatycznie łączy do odpowiedniego konsultanta [1]. Mimo wielu prowadzonych badań problem rozpoznawania mowy jest problemem otwartym i trudnym o czym może świadczyć projekt Siri, który jest rozwijany od roku 2010 i pochłonął ponad 100 milionów dolarów [2]. W uproszczeniu, z punktu widzenia przetwarzania sygnałów, za wytwarzanie mowy odpowiedzialne są struny głosowe oraz tzw. trakt głosowy [3]. Widmo drgających strun głosowych przedstawiono na rysunku 1. Widmo takie posiada szereg harmonicznych. Pierwsza harmoniczna nazywana jest podstawową częstotliwością tonu krtaniowego. Dźwięk drgających strun głosowych nazywany jest pobudzeniem krtaniowym. W przypadku głosek bezdźwięcznych ("p", "t", "k", "f", "s", "ś", "sz", "c", "ć", "cz", "ch") pobudzenia krtaniowego nie ma. Trakt głosowy pełni rolę filtru modelującego widmo sygnału mowy. Charakterystyka traktu głosowego zależy od ułożenia języka, żuchwy, warg, podniebienia. W wyniku połączenia tonu krtaniowego oraz traktu głosowego otrzymujemy na charakterystyce widmowej cztery skupiska o dużej energii, które nazywamy formantami. Powyższy schemat generacji sygnału mowy nazywany jest również modelem źródło-fil... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Przyrządy półprzewodnikowe z węglika krzemu - pomiary, modelowanie i aplikacje (JANUSZ ZARĘBSKI, DAMIAN BISEWSKI, JACEK DĄBROWSKI, KRZYSZTOF GÓRECKI, KAMIL BARGIEŁ, JOANNA PATRZYK)
Kluczową rolę w rozwoju elektroniki i energoelektroniki pełnią elementy półprzewodnikowe, w tym elementy mocy o coraz lepszych parametrach. Materiały półprzewodnikowe stanowią podstawowy materiał w konstrukcji elementów mocy. Na przestrzeni ostatnich kilkudziesięciu lat nastąpił gwałtowny rozwój i postęp technologiczny pozwalający na wykorzystanie w tym celu materiałów półprzewodnikowych o coraz doskonalszych właściwościach. Oprócz powszechnie już stosowanych w przemyśle elektronicznym materiałów półprzewodnikowych, takich jak krzem i arsenek galu, pojawiają się nowe materiały, czego przykładem może być węglik krzemu. W pracy przedstawiono wyniki badań prowadzonych w Katedrze Elektroniki Morskiej (KEM) Akademii Morskiej w Gdyni w zakresie modelowania i pomiarów zarówno przyrządów SiC, jak i układów elektronicznych z tymi przyrządami. Właściwości węglika krzemu Dopuszczalne wartości parametrów roboczych półprzewodnikowych przyrządów mocy takich, jak napięcia i prądy zaciskowe, temperatura wnętrza, gęstość mocy oraz częstotliwość pracy, w dużym stopniu zależą od parametrów materiałowych oraz właściwości półprzewodników stosowanych do konstrukcji tych przyrządów. W tabeli 1 porównano wartości wybranych parametrów materiałowych, tj. szerokości przerwy energetycznej Eg, krytycznego natężenia pola EC, ruchliwości elektronów μn i dziur μp, prędkości nasycenia elektronów νS, koncentracji samoistnej ni oraz przewodności cieplnej λth krzemu oraz węglika krzemu o odmianie krystalicznej (politypii) 4H. 3-krotnie wyższą wartością szerokości przerwy energetycznej Eg, 8-krotnie wyższą wartością krytycznego natężenia pola EC, 2-krotnie wyższą wartością prędkości nasycenia elektronów νS oraz ponad 3-krotnie wyższą wartością przewodności cieplnej λth, co potencjalnie stwarza możliwość wytwarzania z tego materiału przyrządów półprzewodnikowych o wyższej wytrzymałości napięciowej i temperaturowej, a także o mniej... więcej»

Polska premiera HUAWEI Ascend P7
Firma HUAWEI prezentowała na polskim rynku najnowszy smartfon serii Ascend P - HUAWEI Ascend P7. Grubość zaledwie 6,5 mm sprawia, że następca popularnego modelu Ascend P6, jest jednym z najcieńszych smartfonów 4G LTE na świecie. Elegancka, metalowa obudowa pokryta szkłem, unikalne funkcje aparatu fotograficznego umożliwiające m.in. wykonywanie panoramicznych autoportretów czy 10-poziomowy, a... więcej»

Zarządzanie rozpływem energii w systemie przekształtnikowym stacji ładowania baterii elektrochemicznych współpracującej ze źródłami fotowoltaicznymi (Paweł Staniak, Grzegorz Iwański, Janusz Wiśniewsk, Wojciech Moćko, Marcin Ornowski)
Wykorzystanie źródeł odnawialnych w gospodarce energetycznej wzrasta. Źródła tego typu zyskują coraz większą popularność w gospodarstwach domowych oraz w obiektach użyteczności publicznej. Dodatkowo, przy wzrastającym zużyciu spowodowanym perspektywą konieczności zapewnienia energii dla pojazdów elektrycznych, stosowanie tego rodzaju źródeł może nabrać znaczenia. Jednym z sugerowanych zastosowań jest wykorzystanie systemów fotowoltaicznych w stacjach ładowania baterii elektrochemicznych. Zakłada on pozyskiwanie energii ze źródeł PV i przekazywanie jej do baterii elektrochemicznych stosowanych, jako źródła energii w pojazdach elektrycznych. Funkcje stacji w sposób skrócony przedstawiono w rozdziale drugim pracy, zaś szczegółowy opis struktur przekształtnikowych mocy zaprezentowano w artykule [1]. Założenia projektu Projekt stacji ładowania baterii elektrochemicznych zakładał budowę demonstracyjnego systemu przekształtników w skali małej mocy, w którym za pomocą sterowania odbywać się ma zarządzanie rozpływem energii pozyskiwanej ze źródeł PV oraz uzupełnianej z sieci elektroenergetycznej. Schemat systemu przedstawiono na rys. 1. W zależności od funkcji realizowanych w systemie użyto trzech topologii układów przekształtnikowych. Układ dołączony do źródeł PV to przekształtnik kaskadowy napięcia stałego złożony z układów podwyższających napięcie (Conv1-4 na rys. 1), struktura połączona z bateriami elektrochemicznymi to przekształtnik obniżający napięcia stałego (Conv5-8 na rys. 1). Wy... więcej»

Quasi-elastyczne mozaikowe taśmy fotowoltaiczne (Kazimierz Drabczyk, Stanisław Maleczek, Piotr Panek )
Rynek produktów fotowoltaicznych mimo kryzysu ekonomicznego nadal przeżywa ciągły wzrost produkcji oraz staje się coraz powszechniej stosowanym alternatywnym źródłem energii na świecie [1]. Przemawiają za tym głównie czynniki dotyczące ochrony środowiska naturalnego, jak również czynniki ekonomiczne oraz bezpieczeństwa energetycznego. Ciągły rozwój tej dziedziny przyczyni się także do stałego spadku cen modułów w relacji USD/Wp [2]. Jednakże dotyczy on najpowszechniej produkowanych oraz stosowanych baterii słonecznych w postaci modułów fotowoltaicznych o standardowych wymiarach, które stosowane są w typowych instalacjach produkujących energie elektryczną. Tego typu moduły konstruowane są w oparciu o ramy aluminiowe oraz zabezpieczające szyby ze szkła hartowanego o wysokiej transmisji dla światła słonecznego. Pojawia się jednak wiele dziedzin, w których od baterii słonecznych wymaga się przede wszystkim niskiej wagi i elastyczności. Należą do nich układy zasilania na potrzeby wojska oraz systemy wykorzystywane w sytuacjach kryzysowych. Autorzy przedstawili już koncepcje takich właśnie baterii przy czym pierwotnie zakładano stworzenie taśmy wyposażonej w elektronikę wykonawczą oraz stworzenie specjalnej maty PV [3]. W niniejszym artykule przedstawiono pierwsze badania dotyczące wykonania elastycznej taśmy fotowoltaicznej. Eksperyment Cięcie ogniw o dużej powierzchni na małe struktury Laboratorium Fotowoltaiczne IMIM PAN posiada opracowaną technologię wytwarzania ogni... więcej»

O silnej sztucznej inteligencji (Zbigniew Handzel, Mirosław Gajer)
Wyraźnie zarysowującym się nurtem badawczym w dziedzinie sztucznej inteligencji jest prąd określany mianem "silnej sztucznej inteligencji" (ang. strong artificial intelligence). Zwolennicy wymienionego kierunku badawczego częstokroć wysuwają bardzo śmiałe tezy, według których pomiędzy budową ludzkiego mózgu a budową cyfrowego komputera (tzw. maszyny Turinga) nie ma w istocie żadnych fundamentalnych różnić. W skrajnych przypadkach można spotkać się wręcz ze stwierdzeniem, że ludzkie mózgi to tylko komputery, tyle że zbudowane z substancji organicznych (aminokwasów, DNA itp.) zamiast półprzewodnikowych układów scalonych. W związku z powyższym formułowane są także niezwykle śmiałe prognozy, według których być może już za kilkadziesiąt lat konstruowane przez naszą cywilizację techniczną komputery osiągną stopień złożoności przewyższający stopień komplikacji budowy ludzkiego mózgu, w związku z czym staną się bardziej sprawne intelektualnie niż człowiek [2-4]. Niektórzy badacze w tego rodzaju prognozach dopatrują się nawet poważnych zagrożeń dla dalszego istnienia ludzkiego gatunku, ponieważ według nich zachodzi poważna groźba, że w pewnym momencie doskonalsze od człowieka twory techniki po prostu zbuntują się, przejmą władzą i postanowią człowieka całkowicie wyeliminować jako zbędną dla nich konkurencję. W niniejszym artykule autorzy próbują podjąć dyskusję, odnośnie zasadności hołdowania tego rodzaju poglądom i głoszenia takich katastroficznych prognoz. W opinii autorów za "silną sztuczną inteligencją" kryją się inne fundamentalne stanowiska filozoficzne, których jest ona tylko zwykłą konsekwencją. W szczególności "silna sztuczna inteligencja" wydaje się być bezpośrednią konsekwencją pewnego dogmatu przyjmowanego dość powszechnie w naukach biologicznych, z którym autorzy pragną podjąć dyskusje w dalszej części niniejszego artykułu. We wszystkich znanych autorom podręcznikach do nauk biologicznych zakłada się, trzeba uczciwie p... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Uniwersalny izolowany zasilacz AC /DC (Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)
W dzisiejszym przemyśle elektroenergetycznym liczą się sterowniki zabezpieczeniowe których wspólną cechą są niewielkie wymiary i wysoka wytrzymałość na zaburzenia elektromagnetyczne - w szczególności na impulsowe zakłócenia udarowe SURGE i szybkozmienne zakłócenia impulsowe BURST. Przedstawiony w poniższym artykule uniwersalny układ izolowanego zasilacza jest kompromisem pomiędzy niewielkimi gabarytami, niewygórowaną ceną, a odpornością na zaburzenia EMC i wysoką sprawnością. Zaprezentowany na schemacie z rys. 1 zasilacz jest układem o topologii flyback. Rozwiązania tego rodzaju są rozwiązaniami stosowanymi z reguły w aplikacjach wymagających izolacji galwanicznej i wysokiej sprawności. Od rozwiązań klasycznych (transformatorowych) różnią się przede wszystkim zdecydowanie mniejszymi gabarytami zastosowanego transformatora impulsowego i wagą całego rozwiązania. Podstawową wadą konstrukcji tego typu jest duża ilość elementów niezbędnych do zbudowania zasilacza, stosunkowo duża złożoność układu, a także właściwy dobór parametrów zastosowanego transformatora impulsowego. W trakcie konstrukcji zasilacza zdecydowano się na możliwie duże ograniczenie elementów konstrukcyjnych - w związku z tym zastosowano układ scalony sterownika przetwornicy wraz z wbudowanym kluczem - DPA422. Tego typu układy scalone pozwalają z reguły na znaczne zmniejszenie ilości elementów po stronie pierwotnej zasilacza i jednoczesne ograniczenie kosztów rozwiązania - z reguły jednak sprawność takiego obwodu maleje ze względu na zintegrowany klucz przetwornicy. W zastosowanym sterowniku rezystancja włączonego klucza RDSon jest na poziomie nie wyższym niż 4,6 Ω, co skutku... więcej»

Selektywna katalityczna redukcja tlenków azotu jako sposób ograniczenia emisji zanieczyszczeń do środowiska (Artur WITOWSKI, Krzysztof JASEK)
Zanieczyszczenia gazowe, ze względu na swoją mobilność, stanowią najbardziej niebezpieczną grupę czynników degradujących środowisko naturalne. Wśród zanieczyszczeń gazowych najbardziej istotnymi, ze względu na wielkość emisji i zagrożenie dla środowiska, poza dwutlenkiem siarki, tlenkami węgla, lotnymi związkami organicznymi, pyłami, są tlenki azotu. Powodują one silną degradację środowiska - są odpowiedzialne między innymi za powstawanie kwaśnych deszczy oraz smogu [1, 2]. Spośród występujących w przyrodzie tlenków azotu (N20, NO, N2O3, NO2, N2O4, N2O5) w gazach poreakcyjnych emitowanych do do atmosfery dominuje tlenek azotu (NO) oraz ditlenek azotu (NO2). Dlatego też, w inżynierii ochrony środowiska, za kryterium wielkości emisji tlenków azotu do środowiska przyjęto sumę zawartości NO i NO2 (w przeliczeniu na NO2). Ta sumaryczna wielkość oznaczana jest w literaturze technicznej symbolem NOx. Emisja tlenków azotu w gazach wypuszczanych do środowiska podlega uregulowaniom prawnym poszczególnych państw oraz UE. W Polsce dopuszczalne wielkości emisji tlenków azotu, w zależności od mocy cieplnej źródła i stosowanego paliwa, określa Rozporządzenie Ministra Środowiska z dnia 2011 r. (Dz. U. 2011Nr 95 poz. 558) [3]. Zgodnie z jego treścią, obecnie dopuszczalne wielkości emisji tlenków azotu do atmosfery zostaną zaostrzone od 2016 r. Związane to jest z dostosowywaniem polskich uregulowań prawnych do Dyrektywy Unii Europejskiej 2010/75/UE [4]. W Polsce emisja tlenków azotu stanowi ok. 10% łącznej krajowej wielkości emitowanych zanieczyszczeń gazowych [5]. Głównymi źródłami emisji do atmosfery tlenków azotu są takie gałęzie polskiej gospodarki jak: przemysł energetyczny, chemiczny oraz transport. W ostatnich latach, jak wynika z danych Krajowego Ośrodka Bilansowania i Zarządzania Emisjami (KOBiZE), notuje się stopniowe zmniejszanie emisji do środowiska zanieczyszczeń tlenkami azotu [6]. Ilustruje to tabela 1. Tab. 1. Zestawienie dany... więcej»

Utlenianie węglika krzemu: charakteryzacja procesu i metody symulacji kinetyki (Krystian Król, Mariusz Sochacki, Jan Szmidt)
Klasyczna technologia krzemowa osiąga bariery, które znacznie ograniczają możliwości jej zastosowania w urządzeniach dużej mocy i pracujących w wysokich temperaturach. Jednym z fundamentalnych ograniczeń jest wzrost koncentracji samoistnej nośników w półprzewodnikach wraz ze wzrostem temperatury. Bezpośredni wpływ na wartość koncentracji samoistnej ma szerokość przerwy energii zabronionych danego materiału. Od wielu lat bada się materiały o dużej szerokości przerwy zabronionej, które mają znacznie lepsze właściwości w wymienionych zastosowaniach niż krzem. Materiałem, z którym wiązane są największe nadzieje na rozwiązanie tych problemów, jest węglik krzemu (SiC). Materiał ten charakteryzuje się dużą szerokością przerwy zabronionej (2,4-3,26 eV w zależności od politypu [1]), co umożliwia pracę przyrządów SiC w wysokich temperaturach, nawet 700-800oC [2], wysokim krytycznym polem elektrycznym, dużą przewodnością cieplną oraz wysoką maksymalną prędkością unoszenia nośników. Ponadto materiał ten ma istotną przewagę nad innymi półprzewodnikami o szerokiej przerwie zabronionej - jako jedyny ma możliwość wytwarzania naturalnego, wysokiej jakości (z punktu widzenia właściwości objętościowych) dielektryka (SiO2) w procesie utleniania termicznego. Jest to jeden z elementów, który wywołał duże zainteresowanie węglikiem krzemu, ponieważ proces utleniania termicznego jest dobrze znany z technologii krzemowej i jest jednym z najlepiej opanowanych procesów technologicznych W ostatnim okresie dużo prac poświęcono próbom wytworzenia tranzystora mocy MOSFET na podłożach z węglika krzemu, z powodu potencjalnie znacznie lepszych właściwości w porównaniu z tranzystorem krzemowym, szczególnie w zakresie zastosowań związanych z szybkim przełączaniem w układach mocy. Współczesne tranzystory MOSFET SiC charakteryzują się jednak znacznie mniejszą niż przewidywana ruchliwością efektywną nośników w kanale. Tłumaczy się to dużą gęstością defektów na gra... więcej»

Efektywność środowiskowa produktów, a możliwości oceny cyklu życia płytek obwodów drukowanych z użyciem internetowego narzędzia "LCA to go" (Janusz Sitek, Marek Kościelski)
Efektywność środowiskowa produktów - wprowadzenie Od szeregu lat obserwowany jest wzrost działań pro-ekologicznych w wymiarze globalnym [1, 2], jak i na terenie Unii Europejskiej [3-5], który w ostatnim czasie uległ znaczącemu przyspieszeniu. Związane jest to z realizacją celu Unii Europejskiej oraz jej państw członkowskich, jakim jest stworzenie konkurencyjnej gospodarki, która efektywnie wykorzystuje ograniczone zasoby środowiska. W związku z tym podejmowane są działania, których celem jest eliminowanie produktów o negatywnym wpływie na środowisko i wspieranie rynku produktów ekologicznych [6]. Jednym z przykładów działań w tym zakresie jest opublikowane 5 maja 2013 roku przez Komisję Europejską "Zalecenie w sprawie stosowania wspólnych metod pomiaru efektywności środowiskowej w cyklu życia produktów i organizacji oraz informowania o niej" [7]. Planuje się, że przyszłe regulacje dotyczące zamówień publicznych w Unii Europejskiej mogą definiować ofertę najkorzystniejszą ekonomicznie nie tylko, jako ofertę o najniższej cenie, ale również ofertę najkorzystniejszą biorąc pod uwagę rachunek kosztów cyklu życia LCA (ang. Life-Cycle Assessment). W przyszłości planowane jest wykorzystanie metodyki pomiaru efektywności środowiskowej w konstrukcji instrumentów dotyczących wspierania poszczególnych przedsiębiorstw i branż, jak również uzależnienie wysokość ewentualnej pomocy od poziomu efektywności środowiskowej dóbr produkowanych przez poszczególnych przedsiębiorców. Coraz bardziej prawdopodobne jest również różnicowanie stawek podatkowych w zależności od wyniku analizy środowiskowej [7]. Dlatego znajomość tematyki oceny efektywności środowiskowej produktów w ich cyklu życia staje się coraz bardziej ważna dla pozycji konkurencyjnej danego produktu oraz firmy. Istotnym problemem przy ocenie i prezentacji efektywności środowiskowej produktów jest wybór metod jej oceny, wskaźników ją opisujących oraz sposobu prezentacji ekologiczności ... więcej»

CAF - potencjalny problem niezawodności obwodów drukowanych (Dariusz Ostaszewski, Edward Ramotowski, Tomasz Klej, Jan Oklej)
W związku z rosnącym zapotrzebowaniem na obwody drukowane w technologii HDI odległość pomiędzy przewodnikami ulega ciągłemu zmniejszeniu. Zapewnienie wysokiej niezawodności eksploatacyjnej spoczywa na konstruktorach i producentach PC B. Wiele układów elektronicznych jest przeznaczonych do pracy w skrajnie trudnych warunkach środowiska. Zjawiska elektromigracji (EC M) są odpowiedzialne za powstawanie zwarć i uszkodzenia sprzętu elektronicznego. Do szczególnie wysokiej grupy ryzyka należą urządzenia pracujące przy wysokich gradientach potencjału i w skrajnie niekorzystnych warunkach środowiska. EC M może być przyczyną awarii zarówno na powierzchni jak i wewnątrz struktury laminatu. Korozja na powierzchni dielektryka prowadzi do formowania dendrytów i wąsów metalicznych (ang. metal whiskers). Przyczyną awarii wewnątrz materiału izolatora może być: zwarcie przewodników przez warstwę dielektryka (ang. through-substrate short), awaria pod powierzchnią podłoża (ang. sub-surface substrate failure site) lub wzrost anodowego przewodzącego włókna CAF (ang. conductive anodic filament). CAF jest najczęstszą przyczyną awarii w przypadku uszkodzenia struktury dielektryka. Uszkodzenie struktury może być spowodowane: wadami konstrukcyjnymi, spadkiem adhezji pomiędzy żywicą a włóknami szklanymi, uszkodzeniem mechanicznym lub powstałym w wyniku działania wysokiej temperatury. Rozwarstwienie kompozytu umożliwia dyfuzję roztworów elektrolitów. Wzrost przewodzącego włókna ma miejsce wyłącznie przy przepływie prądu stałego i prowadzi do nieprzewidywalnej utraty rezystancji w wyniku korozji lub zwarcia przewodników. Znajomość mechanizmu powstawania CAF jest kluczowa w celu zapewnienia wysokiej jakości eksploatacyjnej urządzeń elektronicznych. Mechanizm powstawania CAF Zaproponowany przez Lando [10] mechanizm powstawania CAF składa się z dwóch etapów: uszkodzenia struktury laminatu i korozji elektrochemicznej anody. Szybkość pierwszego etapu limitu... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Zastosowanie pseudolosowych generatorów chaotycznych do transmisji danych wrażliwych z użyciem magistral szeregowych (PAWEŁ DĄBAL, RYSZARD PEŁKA)
Obecnie dużym zainteresowaniem cieszą się systemy telemetryczne umożliwiające integrację wielu rodzajów czujników oraz aktuatorów (urządzeń wykonawczych). Rozbudowa systemu pociąga za sobą konieczność użycia niezawodnych sposobów komunikacji pomiędzy elementami systemu. Podzielić możemy je na dwie zasadnicze grupy: przewodowe (np. I2C, SPI , CAN) oraz bezprzewodowe (np. ZigBee, Wi-Fi). W przypadku transmisji bezprzewodowych niemal standardem jest stosowanie mechanizmów mających zapewnić poufność i autentyczność przesyłanej informacji. Transmisja przewodowa z racji ograniczonego dostępu do medium transmisyjnego do tej pory nie przyciągała uwagi badaczy. W przypadku kiedy przesyłane dane są wrażliwe, ważnym aspektem staje się zapewnienie możliwości zabezpieczenia ich z użyciem znanych technik kryptograficznych. Ma to szczególne znaczenie w przypadku aplikacji mających zapewnić bezpieczeństwo człowiekowi posługujących się nimi np.: aparaturą medyczną, w motoryzacji (ABS, ESP, ACC ) i kontroli procesów produkcyjnych [1, 2]. Niekiedy kiedy jeden z komponentów systemu (np. czujnik biomedyczny) może być zastąpiony komponentem nie spełniającym specyficznych wymagań systemu (np. precyzji, rozdzielczości, obsługi procedur diagnostycznych, itp.). Innym rodzajem zagrożenia jest narażenie na modyfikację lub całkowite uniemożliwienie komunikacji oraz wywołanie niestabilności systemu lub jego całkowitej awarii. Zastosowanie szyfrowania i uwierzytelnienia zapewnia podwyższenie bezpieczeństwa i ułatwia szybsze wykrywanie ataku na magistralę. W celu zapewnienia poufności danych można zastosować powszechnie znane algorytmy kryptograficzne z symetrycznym kluczem (np. DES, AES). Za integralność danych odpowiadają funkcje skrótów (np. SHA), natomiast za uwierzytelnienie algorytmy z kluczem publicznym (np. RSA). Implementacja ich w urządzeniach mających komunikować się za pośrednictwem prostych magistral szeregowych najczęściej odbywa się progr... więcej»

Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych (Tomasz Kraszewski)
Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

Programowa implementacja kontrolera magistrali CAN w lokalnych sieciach sensorowych (Kazimierz KAMUDA, Mariusz SKOCZYLAS, Jerzy ŚWIĘCH, Włodzimierz KALITA)
Kontroler CAN wykonuje ściśle określone funkcje w układach elektronicznych współpracujących z magistralą CAN. Podstawową funkcją kontrolera jest sprzętowa realizacja protokołu magistrali CAN, która obejmuje generowanie pakietów danych według specyfikacji standardu CAN, odbiór danych oraz obsługę błędów. Dzięki kontrolerowi układ mikroprocesorowy współpracujący z magistralą jest odciążony od dodatkowych obliczeń. Mikrokontroler, który wcześniej został skonfigurowany do wysyłania i odbierania wiadomości na magistralę, musi jedynie dostarczyć kontrolerowi określone wartości identyfikatora i danych do kontrolera CAN, a cała reszta funkcji potrzebnych do działania w tym systemie jest realizowana w tym układzie scalonym. Najczęściej kontroler magistrali CAN realizowany jest w postaci sprzętowej w mikrokontrolerze, bądź w formie oddzielnego układu scalonego. Możliwa jest jednak programowa implementacja kontrolera, dzięki której typowy mikrokontroler 8 bitowy będzie mógł odbierać i wysyłać dane na magistrali. Wprowadzenie programowej implementacji wiąże się pewnymi ograniczeniami. Będą nimi mniejsza ilość wolnej pamięci flash oraz większe obciążenie procesora na czas odbierania i przetwarzania danych. Jednak w wielu przypadkach wady te nie dyskredytują tego rozwiązania. Programowa implementacja niesie ze sobą też wiele zalet, takich jak mniejsze koszty urządzenia, możliwość działania z wykorzystaniem tanich mikrokontrolerów oraz znaczne ograniczenie poboru mocy związanego z pracą dodatkowego układu kontrolera CAN. Koncepcja programu Program implementujący funkcje kontrolera magistrali CAN nie musi w pełni odzwierciedlać działania sprzętowego kontrolera CAN. Wynika to z faktu, że istnieje tylko kilka funkcji niezbędnych do wymiany danych na magistrali, więc szereg działań kontrolera może zostać pominięte lub zastąpione. Program, który został opracowany można podzielić na trzy części. W pierwszej części znajdują się funkcje, bez któ... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS (Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)
Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej (Michał Łabowski, Piotr Kaniewski)
Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Wpływ obecności farm wiatrowych na działanie radaru pasywnego (Janusz S. Kulpa, Marcin K. Bączyk, Krzysztof Kulpa)
W ostatnich latach można zaobserwować duży wzrost liczby turbin wiatrowych w Polsce [14]. Spowodowane jest to w dużej mierze presją Unii Europejskiej na rozwój odnawialnych źródeł energii. Należy jednak mieć na uwadze, iż budowa farm wiatrowych może niekorzystnie wpłynąć na skuteczność systemów radiolokacyjnych, zarówno aktywnych jak i pasywnych. Turbina wiatrowa jest obiektem w skład którego wchodzą silnie odbijające części o szerokim spektrum prędkości. W minionych latach powstało wiele analiz skupiających się na oddziaływaniu farm wiatrowych na radary [2, 9, 10]. Głównie dotyczą one monostatycznych radarów aktywnych. Powstały też algorytmy, które pozwalają na usunięcie lub ograniczenie szkodliwych efektów wywoływanych przez obecność farmy wiatrowej w obszarze pracy radaru [11], [13]. Literatura obejmująca analizy wpływu parków wiatrowych na radary multistatyczne, w tym na radary pasywne, jest uboga. Większość sposobów używanych w radarach aktywnych nie może być bezpośrednio zastosowana w radiolokacji pasywnej. Radar pasywny PCL (ang. Passive Coherent Location) to radar, który nie emituje własnych fal elektromagnetycznych - wykorzystuje sygnały już obecne w przestrzeni, takie jak radio FM, naziemna telewizja cyfrowa DVB-T, stacje sieci komórkowych GSM, bądź internetu bezprzewodowego [1, 5, 7, 8]. Radar taki rejestruje sygnał z nadajnika, tzw. sygnał referencyjny xref , oraz sygnał obserwacyjny xs zawierający odbite od występujących w obserwowanej scenie obiektów kopie sygnału nadawanego. Detekcja następuje wskutek korelacji sygnału odebranego z obserwowanej sceny z sygnałem referencyjnym za pomocą dwuwymiarowej funkcji niejednoznaczności [3]: (1) gdzie τ jest przesunięciem czasowym, fd częstotliwościowym sygnału xref, a* jest operatorem zespolonego sprzężenia. Maksima funkcji niejednoznaczności odpowiadają przesunięciom czasowym i częstotliwościowym obserwowanych obiektów, czyli określają ich odległość i prędkość bi... więcej»

INTERNETOWA POLONIA a nowe narzędzia edukacji i promocji kultury narodowej na bazie szerokopasmowego dostępu do Internetu (Andrzej M. Wilk)
Polska - Polonia i Polacy za granicą Polska w czternastym roku trzeciego tysiąclecia, w ćwierć wieku od transformacji ustrojowej przeżywa kolejny trudny okres w swej historii. W wyniku dwudziestu pięciu lat transformacji, gospodarka Polska stała się silnie asymetryczna własnościowo w stosunku do naszych głównych partnerów gospodarczych, co, obok typowych tego skutków dla krajowej gospodarki, powoduje również stały, znaczny odpływ kapitału za granicę. W połączeniu z rosnącym poziomem długu publicznego, zbliżającym się do krytycznej dla budżetu granicy i uzależniającym Polskę od życzliwości instytucji finansowych, powstała groźna mieszanka czynników, ograniczająca szanse rozwojowe i pole manewru każdego kolejnego rządu. Brak Polskich lokomotyw gospodarczych, generujących zapotrzebowanie na kooperację i powstawanie łańcuchów zaopatrzeniowych, złożonych w dużej części z małych i średnich krajowych przedsiębiorstw, utrudnia również proces powstawania i rozwoju tych firm w Polskiej gospodarce. Rezultatem tych wieloletnich procesów jest utrata znacznej liczby miejsc pracy, będąca również wynikiem automatyzacji wielu procesów produkcyjnych i usługowych. Powszechnie krytykowana, niesprzyjająca krajowym firmom, praktyka administracyjna i skarbowa, utrudnia również ich rozwój, pogłębiając brak pracy, powodujący ograniczenie perspektyw życiowych, szczególnie wśród młodych osób, wkraczających na rynek pracy. Skutecznie zniechęca ich również do podejmowania na większą skalę wysiłku poszukiwania miejsc pracy w Kraju, lub inicjowania działalności gospodarczej, mimo relatywnie dobrego przygotowania zawodowego i determinacji w działaniu. W połączeniu ze zmianami cywilizacyjnymi, dotyczącymi wzorców życia i pracy, skutkuje to narastającą w wielu środowiskach społeczną frustracją, dramatycznym spadkiem liczby urodzeń w Polsce i nasiloną, masową emigracją młodych i aktywnych zawodowo osób. Tam też, na emigracji, przychodzi na świat kolejne (cz... więcej»

Światłowody i ich zastosowania 2014 (Jan Dorosz, Ryszard Romaniuk)
Technika światłowodowa rozwijana jest w kraju, także na poziomie technologicznym, od połowy lat siedemdziesiątych ubiegłego wieku. Wkrótce będziemy obchodzić jej krajowe czterdziestolecie. Pierwsze ośrodki technologiczne powstały na terenie Wydziału Chemii UMCS w Lublinie (prof. A. Waksmundzki, J.Wójcik, A.Gorgol) w 1975 roku, a następnie na terenie instytutu ITME w Warszawie (L. Kociszewski), Hucie Szkła Polam-Ożarów, oraz na Politechnice Białostockiej i w Hucie Szkła Białystok (J. Dorosz). Obecnie technologiczne prace badawcze nad światłowodami są kontynuowane z sukcesem w trzech ośrodkach: Lubelskim (UMCS i PL), Białostockim (PB) i Warszawskim (ITME). Produkowane zaawansowane światłowody są stosowane w badaniach materiałowych i technologicznych, rozwoju procesów, a także do wytwarzania funkcjonalnych elementów i urządzeń fotonicznych. Z produkcji światłowodów telekomunikacyjnych, fotonicznych i specjalizowanych nietelekomunikacyjnych, w wymienionych ośrodkach, korzysta wiele laboratoriów elektronicznych, metrologicznych, telekomunikacyjnych, optoelektronicznych i fotonicznych, głównie uczelnianych, w całym kraju i zagranicą. Z tych światłowodów produkcji krajowej zbudowano wiele innowacyjnych elementów, układów i systemów fotonicznych. Dzięki dostępności w kraju światłowodów włóknistych telekomunikacyjnych i specjalnych, na wielu uczelniach mogły rozwinąć się nowoczesne laboratoria fotoniki światłowodowej. Jest to znaczny, chyba niedoceniany, sukces krajowych ośrodków technologicznych, wśród których Laboratorium Technologii Światłowodów na UMCS w Lublinie, pod kierownictwem prof. Andrzeja Waksmundzkiego, było pierwsze. Tradycja krajowych konferencji światłowodowych Krajowe środowisko naukowo-techniczne fotoniki i optoelektroniki światłowodowej spotyka się co półtora roku, na ogół w dość licznym towarzystwie gości zagranicznych, na Krajowej Konferencji" Światłowody i ich Zastosowania". XV Konferencja OFTA2014 odbyła się... więcej»

Zrekonstruowana cyfrowo "Wojna światów"
KinoRP jest przedsięwzięciem zainicjowanym w roku 2008 i koordynowaną przez Cyfrowe Repozytorium Filmowe. Honorowym patronatem KinaRP jest Minister Kultury i Dziedzictwa Narodowego Bogdan Zdrojewski, a patronami medialnymi: KINO, Telewizja Kino Polska, Radio TOK FM, FilmPRO, oraz serwisy internetowe: KronikaRP.pl, Serwis sfp.org.pl i Audiowizualni. pl. Digitalizacja umożliwia, jak nigdy dotąd, szerokie otwarcie magazynów filmowych i wydobycie najstarszych i najcenniejszych dzieł sztuki filmowej. Cyfrowy zapis to rewolucja w udostępnianiu filmów publiczności w formie kina cyfrowego, dysków optycznych lub na użytek telewizji, bądź inte... więcej»

Słowo Prezesa SEP na ŚDTiSI 2014 - XV KOS - Konferencja Okrągłego Stołu "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej"
Szanowni Państwo, Mam zaszczyt powitać Państwa na jubileuszowej XV Konferencji Okrągłego Stołu zatytułowanej "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej, na bazie szerokopasmowego dostępu do Internetu", objętej patronatem honorowym Pani Ewy Kopacz - Marszałek Sejmu RP. Konferencja ta stanowi kulminacyjny moment tegorocznych obchodów Światowego Dnia Telekomunikacji i Społeczeństwa Informacyjnego zorganizowanych przez Stowarzyszenie Elektryków Polskich i Polskie Towarzystwo Informatyczne. Obchody te zostały objęte patronatem honorowym Prezydenta Rzeczypospo... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Analiza technik biometrycznych do uwierzytelniania osób (Mirosława Plucińska, Jarosław Wójtowicz)
Elektronizacja administracji (e-administracja), upowszechnienie transakcji i usług internetowych (e-usługi) wymagają jednoznacznej weryfikacji osoby korzystającej z tych udogodnień. Wydaje się, że takie jednoznaczne potwierdzenie tożsamości osoby może zapewnić biometria. W związku z tym należy rozpatrzyć dostępne techniki biometryczne, przyjrzeć się im i wybrać te, które będą najbardziej przydatne do uwierzytelniania. Ogólny przegląd technik biometrycznych istniejących i rozwijanych obecnie na rynku z krótkim opisem metody działania i najważniejszymi wadami i zaletami został umieszczony w artykule pt.: "Krótki przegląd technik biometrycznych do rozpoznawania osób" autorstwa M. Plucińskiej i w związku z tym w obecnym artykule nie będzie przypomnienia technik jakie są obecnie na rynku, a jedynie ich porównanie. Najważniejsze cechy technik biometrycznych Analizę i porównywanie technik biometrycznych można przeprowadzić w różnych aspektach. Do najważniejszych cech charakteryzujących poszczególne techniki biometryczne opisanych parametrami urządzeń biometrycznych należą - wiarygodność techniki, akceptowalność społeczna i łatwość użycia, przepustowość określona czasem weryfikacji, wielkość wzorca, wielkość urządzenia, cena i inne. Akceptowalność społeczna Jedną z ważnych cech dotyczących technik biometrycznych jest akceptowalność społeczna biometrii. Strach przed przyłożeniem palca czy oka do urządzenia skanującego oraz obawa przed zostawianiem swoich danych biometrycznych są ciągle duże, ale ogólne podejście społeczeństwa do biometrii zmienia się. Z danych przytoczonych na Konferencji Naukowej Biometria 2010 (organizator Instytut Maszyn Matematycznych, Warszawa) w prezentacji prof. A. Koziczak z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy, aż 77% ankietowanych studentów Wydziału Prawa i Administracji w wieku od 22 do 30 lat było za stosowaniem cech biometrycznych do szybkiego sprawdzenia tożsamości. Ankietowani godzili się na ... więcej»

Adaptacyjna transmisja sygnału EKG z użyciem predykcji interwałów R-R za pomocą odpornej funkcji regresji (Paweł Kowalski, Michał Momot, Arkadiusz Stankiewicz, Rafał Wiśniowski, Krzysztof Różanowski)
Jednym z zagadnień, które można zaliczyć do obszaru inżynierii biomedycznej jest telemedycyna, która stanowi formę opieki zdrowotnej łączącą telekomunikację, informatykę i medycynę. Stwarza to między innymi możliwość przełamywania barier geograficznych i zwiększa efektywność wykorzystania potencjału istniejących struktur służby zdrowia. W celu usprawnienia funkcji realizowanych przez placówki medyczne korzystnej wydaje się wykorzystywanie nowoczesnych technologii teleinformatycznych. Nieodzownym elementem procesu diagnostyczno-terapeutycznego jest wymiana informacji pomiędzy jednostkami ochrony zdrowia na różnych poziomach. Konsultacja medyczna realizowana w sposób klasyczny wiąże się z koniecznością transportu badanej osoby, czasami również towarzyszącego lekarza oraz dokumentacji medycznej pomiędzy poszczególnymi placówkami ochrony zdrowia. Realizacja konsultacji przy pomocy łączy telekomunikacyjnych zapewniających odpowiednią jakość przekazu pozwala przyspieszyć ten proces. Zdalne techniki medyczne należą do najbardziej rozwojowych narzędzi monitorowania, diagnostyki i leczenia. Nieomal w każdej dziedzinie i specjalności medycznej można polegać na telekonsultacji lub telediagnostyce. Wśród systemów leżących w obszarze telemedycyny można znaleźć takie, które są związane z transmisją sygnałów elektrodiagnostycznych [1]. Do takich sygnałów należą między innymi, sygnały elektrokardiograficzne (EKG), elektroencefalograficzne (EE G), czy elektromiograficzne. Sygnały te, podlegają akwizycji z ciała osoby badanej na drodze pomiaru wielkości elektrycznych, w szczególności napięcia lub rezystancji. Wielkości elektryczne, rejestrowane na powierzchni ciała mogą być, po uprzednim wzmocnieniu i wstępnym przetworzeniu, zamienione na postać cyfrową. Dalsze ich przetwarzanie odbywa się poprzez realizację programów komputerowych, w komputerach stacjonarnych, urządzeniach mobilnych lub mikrokontrolerach. Praca przedstawia zagadnienie selekt... więcej»

Detekcja aktywności istot żywych ukrytych za ścianą (Waldemar SUSEK, Bronisław STEC, Mirosław CZYŻEWSKI, Czesław REĆKO, Adam SŁOWIK)
Współczesne warunki stawiają wysokie wymagania systemom radioelektronicznym. Pojawia się całe spektrum zastosowań, zarówno w ramach systemów wojskowych i specjalnych, jak i całkowicie cywilnych, komercyjnych. Zagrożenia terrorystyczne i inne podobnego typu sytuacje kryzysowe stwarzają zapotrzebowanie na systemy wykrywania i przeciwdziałania różnorodnym zagrożeniom terrorystycznym, lub innym, stwarzającym zagrożenie dla osób lub instytucji państwowych. Często też systemy takie wspierają działania służb ratowniczych, poszukiwawczych, lub też służą celom ściśle komercyjnym. Do niedawna radary szumowe, ze względu na niestabilność źródeł sygnału oraz konieczność stosowania specyficznych rozwiązań przy ich konstrukcji, nie były zbyt powszechne. Ostatnio, ze względu na specyficzne cechy, obserwuje się coraz większą liczbę aplikacji z ich wykorzystaniem, zarówno specjalnych, jak i komercyjnych. Cechy sygnałów szumowych są znane od kilkudziesięciu lat, jednak problem z ich generacją i zapewnienia stabilności parametrów sygnału nastręczał wiele problemów. Również odbiór tego typu sygnałów i związana z nim specyfika przetwarzania, powodowały, że konstrukcje miały charakter eksperymentalny [2-4]. Zadaniem lokalizatora jest wykrycie osób, przebywających za przesłonami niemetalowymi, w praktyce są to najczęściej: drewniana lub murowana ściana, okno, drzwi, lub inne podobne przesłony. Ściana murowana lub inna, wzmocniona prętami metalowymi, może być przejrzysta dla fal radiowych, jeżeli użebrowanie jest niezbyt gęste. Ścisłe określenie tego problemu wymaga niezależnych badań. Drugim istotnym problemem przy pracy takiego radaru jest odróżnienie obiektów stałych, takich jak: krzesło, biurko, szafa lub inne przedmioty od odbicia i wyróżnienia, jakie dają istoty żywe, w tym także człowiek. Spełnienie powyższych wymagań można uzyskać stosując do wyróżniania obiektów odbiornik korelacyjny, współpracujący z sygnałem szumowym [5]. Budowa lokalizat... więcej»

Porównanie elektrycznych właściwości mikroczujników impedancyjnych wykonanych na podłożach krzemowych i szklanych (Konrad Chabowski, Tomasz Piasecki, Karol Nitsch, Teodor Gotszalk, Andrzej Sierakowski, Piotr Grabiec )
Technologie mikroelektroniczne dają możliwość wykonywania miniaturowych czujników, przyrządów półprzewodnikowych, układów scalonych oraz systemów mikro- i nanoelekromechanicznych. Systemy te, ze względu na bardzo duży stopień integracji, wymagają łączenia ze sobą różnych materiałów i struktur. Jako przykład można wymienić mikrosystemy przepływowe z wbudowanymi czujnikami impedancyjnymi, znajdujące zastosowanie w genomice, proteomice i badaniach komórek [1-3]. Konstruowano również biokompatybilne mikrosystemy przewidziane do zastosowań In vivo w ludzkim organizmie, służące np. do programowanego dozowania leków wraz z monitoringiem jego uwalniania [4] oraz wczesnego wykrywania niedokrwienia serca podczas operacji kardiochirurgicznych [5]. Prostszymi konstrukcjami mikroelektronicznymi są pojedyncze czujniki impedancyjne na jednolitym podłożu z utlenionego krzemu lub szkła, wykorzystywane m.in. do monitorowania wzrostu biofilmu bakteryjnego [6-8] lub, po biochemicznej funkcjonalizacji powierzchni podłoża, służące jako biosensory, które selektywnie detekują obecność analitu w próbce [9, 10]. Innym rodzajem czujników wykonanych w technologii krzemowej są czujniki mikromechaniczne wykonane na mikrodźwigniach krzemowych [11]. Struktury czujników impedancyjnych mogą być wykonane na podłożach dielektrycznych (szkło, polimer) [1-3, 8, 10] bądź na półprzewodniku pokrytym cienką warstwą dielektryka [4, 6, 7]. To drugie rozwiązanie jest interesujące ze względu na to, że daje ono możliwość integracji w jednej strukturze czujnika z układami elektronicznymi niezbędnymi do wykonania pomiaru. Badania prezentowane w artykule dotyczą porównania właściwości czujników impedancyjnych z elektrodami palczastymi o takiej samej geometrii, wykonanych na różnych podłożach: szkle, utlenionym krzemie oraz utlenionym krzemie z elektrodą ochronną. Porównywano zmierzone widma impedancyjne czujników umieszczonych w powietrzu, wodzie destylowanej oraz fizjologi... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect (Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)
W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Uproszczona metoda obliczania warunków pracy tranzystorów w rezonansowych wzmacniaczach mocy klasy DE (Juliusz Modzelewski)
Kluczowane rezonansowe wzmacniacze mocy w radiotechnice mogą pełnić rolę stopni mocy nadajników systemów radiowych z modulacją częstotliwości (FM) i fazy (PM) oraz modulatorów mocy w nadajnikach z modulacją amplitudy (AM). Obecnie modulatory amplitudy o dużej mocy są także stosowane w wysokosprawnych liniowych wzmacniaczach mocy pracujących w układzie EE R (Envelope Elimination and Restoration) wykorzystywanych w nadajnikach systemów cyfrowych. Natomiast w energoelektronice wzmacniacze kluczowane pełnią funkcję przetworników energii źródła prądu stałego w energię wielkiej częstotliwości, dlatego zamiast określenia wzmacniacz często używane jest określenie inwerter (np. [1, 2] albo falownik (np. [3, 4]. Ideę kluczowanego wzmacniacza rezonansowego klasy DE przedstawiono w 1975 roku (Żukow, Kozyriew [5]). W wzmacniaczu tym zostały wyeliminowane podstawowe wady rezonansowego wzmacniacza mocy klasy D [6, 7]. Powstawanie prądu skrośnego wskutek pokrywania się impulsów bramkowych usunięto poprzez zwężenie tych impulsów tak, aby w cyklu pracy wzmacniacza pojawił się czas martwy, w którym oba tranzystory mocy są wyłączone (rys. 1). Modyfikację taką można zrealizować m. in. poprzez sterowanie tranzystorów przebiegiem sinusoidalnym [6, 7]. Natomiast straty mocy wywołane włączaniem tranzystorów "pod napięciem" (non-Zero-Voltage Switching) i aktywnym ładowaniem i rozładowywaniem pojemności wyjściowych tranzystorów zostały wyeliminowane poprzez zastosowanie odstrojonego obwodu rezonansowego o charakterze indukcyjnym. Dzięki temu w czasie martwym pojemności te są przeładowywane bezstratnie prądem wyjściowego obwodu rezonansowego. Takie bierne przeładowywanie pojemności wyjściowych redukuje także szybkość narastania napięcia na tranzystorze wyłączonym, co ogranicza groźbę jego pasożytniczego włączenia (i w efekcie powstania prądu skrośnego). Wzmacniacz taki nazywany był początkowo wzmacniaczem klasy D ... więcej»

Demonstrator lekkiego monoimpulsowego radaru trójwspółrzędnego bliskiego zasięgu pasma L (Adam Konrad Rutkowski, Adam Kawalec)
Systemy radarowe bliskiego i bardzo bliskiego zasięgu mają bardzo duże znaczenie w zastosowaniach powszechnych jak i w zastosowaniach specjalnych. Należą do nich między innymi systemy tak zwanej obrony aktywnej obiektów przed pociskami przeciwpancernymi. Celem obrony aktywnej jest uzyskanie co najmniej jednego z następujących efektów: - pocisk przeciwpancerny atakujący broniony obiekt zostanie zniszczony zanim dotrze do celu, - tor lotu pocisku przeciwpancernego zostanie zmieniony tak, że minie atakowany obiekt, - pocisk przeciwpancerny dotrze do atakowanego obiektu, ale zostanie uszkodzony w takim stopniu, że jego głowica bojowa nie przebije pancerza osłaniającego broniony obiekt. Osiągnięcie tych efektów wymaga jak najwcześniejszego uzyskania wiarygodnej informacji o tym, że chroniona strefa została naruszona, a obiekt jest atakowany. Na informację tę składają się: liczba atakujących pocisków, chwilowy kierunek i zwrot lotu pocisków, chwilowa odległość do każdego z tych pocisków. Do detekcji faktów ostrzelania pojazdu pociskami przeciwpancernymi mogą być stosowane sensory optoelektroniczne oraz elektromagnetyczne, a wśród nich lekkie urządzenia radiolokacyjne [1-3]. Systemy obrony, a w tym obrony aktywnej funkcjonują w warunkach nieprzewidywalnego zagrożenia oraz głębokiego deficytu czasu. W wielu przypadkach czas od chwili wystrzelenia pocisku przeciwpancernego do momentu dotarcia jego do celu nie przekracza 1,5 sekundy. W tym czasie system ochrony powinien wykryć fakt ostrzelania, ocenić stopień niebezpieczeństwa, wybrać najlepszy sposób przeciwdziałania oraz w odpowiednim momencie uruchomić środki obrony aktywnej, tak zwane destruktory, zwalczające atakujący pocisk przeciwpancerny. W przypadku systemów monitorowania obszaru pracujących w warunkach znacznego niedostatku czasu, duże znaczenie mogą mieć systemy radarowe w wersjach monoimpulsowych, zbudowane przy użyciu układów natychmiastowego pomiaru fazy NPF, układów n... więcej»

Implementacje FPGA modułów kwantyzacji i dekwantyzacji w sprzętowych koderach wideo (Grzegorz Pastuszak)
Standard H.264/AVC [1] jest powszechnie używany w różnych aplikacjach komunikacyjnych oraz w rejestracji wideo. W stosunku do poprzednich standardów pozwala on na redukcję budżetu bitowego do 50% przy zachowaniu podobnej jakości zdekodowanego materiału wideo. Ostatnie prace w dziedzinie kompresji wizyjnej doprowadziły do opracowania kolejnego standardu nazwanego H.265/HEVC [2]. Efektywność kompresji uzyskiwana przy zastosowaniu nowych technik jest zwiększona nawet dwukrotnie w stosunku do standardu H.264/AVC. Ulepszenia algorytmu dotyczyły wielu modułów i sposobu organizacji danych. Jednakże moduły kwantyzacji i dekwantyzacji są w obu standardach podobne. Stąd techniki projektowania opracowane dla standardu H.264/ AVC mogą być z powodzeniem przeniesione do H.265/HEVC.Rysunek 1 przedstawia diagram blokowy kodera wideo z wyróżnionymi modułami kwantyzacji i dekwantyzacji. Współczynniki transformaty są kwantowane, aby usunąć mniej istotne informacje przed zakodowaniem entropijnym. Dekwantyzacja jest konieczna do rekonstrukcji treści wideo dla kolejnych bloków, makrobloków i obrazów kodowanych zarówno w trybie predykcji wewnątrzobrazowej (INTRA) i międzyobrazowej (INTER). Analiza kosztu bitowego i zniekształceń (RD) używana do wyboru trybu umożliwia uzyskanie dużej efektywności kompresji. Z drugiej strony koszt obliczeniowy zwiększa się, ponieważ wiele trybów musi być przetworzonych w pętli rekonstrukcji zawierającej kwantyzację i dekwantyzację. By uzyskać wydajność czasu rzeczywistego koder sprzętowy powinien wykorzystać pętlę rekonstrukcji o dużej przepustowości. W szczególności liczba modułów kwantyzacji i dekwantyzacji musi być zwiększona celem przetwarzania równoległego. W konsekwencji ich udział w potrzebnych zasobach sprzętowych staje się znaczący. W literaturze opisano wiele architektur kwantyzacji i dekwantyzacji [3-17]. Większość z nich stosuje bezpośrednie mapowanie kolejnych operacji na kaskadę złożoną z układu mnożące... więcej»

Krótki przegląd technik biometrycznych do rozpoznawania osób (Mirosława Plucińska )
Biometria zajmuje się pomiarem i selekcją indywidualnych, fizjologicznych lub behawiorystycznych cech organizmów żywych oraz udoskonalaniem metod pomiaru i wyboru najbardziej niepowtarzalnych osobniczo parametrów. Obecnie istnieje na rynku szereg technik biometrycznych wykorzystywanych w systemach kontroli dostępu i uwierzytelniania osób. Techniki te są ciągle rozwijane i ulepszane, a także pojawiają też nowe techniki. Najnowszym trendem są multibiometrie, czyli łączenie kilku technik biometrycznych, co zwiększa pewność prawidłowego rozpoznawania osoby i podwyższa bezpieczeństwo systemów je wykorzystujących. Prace nad wykorzystaniem biometrii do celów rozpoznawania osób koncentrują się głównie na łatwo dostępnych cechach fizycznych. Wstępnie techniki biometryczne przydatne do uwierzytelniania osób można podzielić na trzy podstawowe grupy: 1. Techniki biometryczne znane od dawna: - rozpoznawanie rysów twarzy, - rozpoznawanie odcisku palca, - rozpoznawanie kształtu dłoni, - rozpoznawanie siatkówki oka, - rozpoznawanie tęczówki oka, - rozpoznawanie głosu. 2. Techniki biometryczne obecnie preferowane: - rozpoznawanie naczyń krwionośnych palca, - rozpoznawanie naczyń krwionośnych dłoni. 3. Techniki biometryczne przyszłości: - rozpoznawanie głosu (nowej generacji), - multibiometrie, w tym rozpoznawanie odcisku palca + naczyń krwionośnych palca. Interesujące są również techniki rozpoznawania cech behawioralnych takich, jak: - sposób pisania odręcznego (prędkość, nacisk, kąt), - sposób uderzania w klawisze klawiatury, - sposób mówienia (ruch ust), mimika. Prowadzone są także badania nad uwierzytelniania osób za pomocą rozpoznawania np.: geometrii uszu, odcisku kostek dłoni, chodu danego człowieka. Opis technik biometrycznych Rozpoznawanie rysów twarzy Rozpoznawanie geometrii twarzy jest wygodnym środkiem rozpoznawania - "swoją twarz masz zawsze ze sobą". Użytkownik spogląda w kamerę, która rejestruje obraz. Po obróbce i mat... więcej»

Estymacja przepływności bitowej ramek typu P w kodowaniu wideo (Michał Wieczorek, Grzegorz Pastuszak)
Nowoczesne systemy kodowania wideo cechują się wysoką sprawnością działania. Dzięki zastosowaniu złożonych algorytmów, pozwalają uzyskać stosunkowo niską przepływność bitową wyjściowych strumieni wideo przy zachowaniu ich wysokich jakości. Jednocześnie nośniki danych jak i kanały transmisyjne cechują się coraz większą pojemnością i przepływnością. Istotnym problemem jest efektywne wykorzystanie dostępnego pasma transmisyjnego oraz pojemności pamięci a nie tylko minimalizacja rozmiaru czy przepływności materiału wideo. Dlatego też duży nacisk kładziony jest obecnie na sprawne algorytmy kontroli stopnia kompresji sekwencji wideo. Ich podstawowym zadaniem jest taki dobór parametrów kodowania, aby wyjściowy strumień danych efektywnie wykorzystywał dostępne zasoby transmisyjne. W najnowszych pozycjach literaturowych prezentowanych jest kilka bardzo dobrych algorytmów kontroli stopnia kompresji. Większość z nich nie nadają się jednak do zastosowania w koderach pracujących w czasie rzeczywistym. Publikacji opisujących rozwiązania umożliwiające efektywną kontrolę stopnia kompresji w systemach kodowania wideo pracujących z małym opóźnieniem jest niewiele. Jakość tych, które można znaleźć, pozostawia wiele do życzenia. Przykładowo w [1] przedstawiono sprzętowe rozwiązanie dość efektywne z punktu widzenia stabilności przepływności bitowej. Pominięto jednak jeden z czynników równania wyznaczania wartości parametru kwantyzacji QP (ang. quantization parameter), przez co nie jest możliwa implementacja opisanego algorytmu. Zagadnienie efektywnej kontroli stopnia kompresji w czasie rzeczywistym jest zatem wciąż otwarte na nowe rozwiązania. Ogólny schemat działania algorytmów kontroli stopnia kompresji Celem algorytmów kontroli stopnia kompresji jest dobór parametrów kodowania w taki sposób, aby sprostać narzuconym ograniczeniom. Te mogą dotyczyć określonej jakości bądź przepływności bitowej kodowanej sekwencji wideo. Pierwszym krokiem każd... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Skanowania optyczne powierzchni jako narzędzia oceny ilościowej i jakościowej powierzchni warstw i powłok (Konstanty W. Marszałek, Janusz Jaglarz )
Metody skaningu optycznego stosowane są do pomiarów topografii cienkich przeźroczystych warstw oraz warstw wierzchnich. Metody optyczne poza topografią mogą również obrazować zmiany w obszarze objętości warstwy (np.: centra rozpraszania w warstwie, defekty krystaliczne itp.). W badaniach optycznych powierzchnie warstwowe można skanować przez przesuwanie wiązki światła białego lub laserowego prostopadle do próbek z jednoczesnym pomiarem współczynnika odbicia. Na takiej metodyce pomiarowej opiera się profilometria optyczna (PO ). Inną metodą skaningową jest skaningowa elipsometria spektroskopowa (SSE) wykorzystująca światło spolaryzowane. W tej metodzie liniowo spolaryzowana wiązka światła jest przesuwana wzdłuż próbki przy ustalonym kącie padania na próbkę. W każdym kroku wyznaczana jest zmiana polaryzacji światła odbitego od badanej warstwy., Profilometria optyczna (PO ) jest jedną z odmian metod profilometrycznych, w której igła skanująca (jak to ma miejsce w mikroskopii AFM, czy profilometrii stykowej) została zastąpiona wiązką światła [1-4]. PO jest metodą bezkontaktową więc nie niszczy próbek, jak to często ma miejsce w profilometrii mechanicznej oraz w AFM przy badaniu materiałów miękkich np. polimerów. W połączeniu z metodami stykowymi może służyć do rozdzielenia rozproszenia światła spowodowanego zmiennym składem materiałowym powierzchni od topograficznego, wynikającego z istnienia nierówności. [5]. Inną niewątpliwą zaletą PO jest możliwość pomiaru grubości warstw zmieniających się wzdłuż powierzchni na którą warstwa została naniesiona. W PO rozdzielczość boczna jest zdeterminowana przez średnicę wiązki światła. W nowoczesnych profilometrach stosowane są skolimowane wiązki laserowe o średnicy poniżej 1 μm [6]. W PO próbka oświetlana jest relatywnie małym w stosunku do powierzchni próbki obszarze. Tą cechą PO różni się od standardowej mikroskopia optycznej w której oświetlana jest duża powierzchnia próbek. Tę wł... więcej»

Zastosowanie metody najmniejszych kwadratów do estymacji prędkości nosiciela radaru z syntetyczną aperturą (Piotr Serafin, Adam Kawalec, Czesław Leśnik, Marcin Szugajew)
Zobrazowania uzyskiwane dzięki technice syntezy apertury pozwalają na prowadzenie obserwacji terenu z rozróżnialnością zbliżoną do fotograficznej, jednak nie są one ograniczone warunkami oświetleniowymi czy atmosferycznymi panującymi w rejonie zainteresowania. W systemach z syntetyczną aperturą radar instalowany jest zwykle na ruchomej platformie, najczęściej na statku powietrznym. W celu wprowadzenia podstawowych pojęć rozważony zostanie system SAR w konfiguracji lotniczego systemu obserwacji bocznej [1]. Geometria takiego systemu przedstawiona została na rys. 1. Przyjęto założenie, że statek powietrzny będący nosicielem radaru, przemieszcza się ze stałą prędkością vR, na stałej wysokości hR po linii prostej. Listek główny charakterystyki kierunkowej anteny radaru skierowany jest prostopadle do trajektorii ruchu nosiciela i opromieniowuje wycinek terenu. Radar wysyła sygnały sondujące o częstotliwości nośnej f0 z częstotliwością powtarzania Fp i odbiera sygnały echa odbite od obiektów znajdujących się w opromieniowanej przestrzeni. Jeżeli postać analityczna sygnału nadawanego zostanie przedstawiona w postaci następującej: (1) gdzie A(t) jest zespoloną amplitudą sygnału, a f0 jest częstotliwością nośną sygnału sondującego, to odebrany sygnał echa od obiektu punktowego można zapisać następująco: (2) gdzie tT jest czasem opóźnienia sygnału echa w stosunku do momentu wysłania sygnału sondującego i wynosi: (3) natomiast RT jest odległością pomiędzy radarem i obserwowanym obiektem, a c jest prędkością propagacji fali elektromagnetycznej w przestrzeni. W odbiorniku radaru sygnały echa poddawane są konwersji do pasma podstawowego, zatem uwzględniając wyrażenie (3) postać sygnału echa można zapisać jako: (4) W radarze z syntetyczną aperturą odległość pomiędzy obserwowanym obiektem a radarem zmienia się ze względu na ich wzajemny ruch. Jeżeli przyjęty zostanie układ współrzędnych wykorzystany na rys. 1, to funkcję zmiany odle... więcej»

Toshiba AT10A-103
Firma Toshiba Europe, oddział w Warszawie, udostępniła naszej redakcji swój nowy tablet oznaczony AT10A-103. Tablet jest przenośnym komputerem większym nieco niż telefon komórkowy, którego główną, widoczną cechą jest duży ekran dotykowy (Multi-Touch). W przeciwieństwie do większości klasycznych urządzeń tablety nowszego typu nie mają fizycznej klawiatury, użytkownik posługuje się klawiaturą wirtualną dotykając ekranu palcem.W odróżnieniu od kompu... więcej»

Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Rozporządzenie eIDAS - na pograniczu technologii i prawa (Daniel Wachnik )
W wyniku prac regulujących obszar podpisu elektronicznego została wydana Dyrektywa 1999/93/WE dotycząca wspólnotowych ram podpisu elektronicznego [1]. W trakcie 10-ciu lat obowiązywania Dyrektywy nie odnotowano oczekiwanego nasycenia rynku podpisów elektronicznych. W roku 2008 Komisja Europejska zaadoptowała plan działań w zakresie e-podpisu i e-identyfikacji, który zaowocował między innymi wytworzeniem raportów CRO - BIE S [2]. Raporty CRO BIE S stanowiły istotny wkład przy określeniu zakresu mandatu standaryzacyjnego M/460, wydanego w 2009 roku przez Komisję Europejską. Mandat ten miał na celu uporządkowanie standardów związanych z szeroko pojętymi usługami zaufania.Początkowo, rozważano zastosowano możliwość nowelizacji Dyrektywy 1999/93/EC , jednak w na podstawie analiz postanowiono, że najkorzystniejszym aktem prawnym, z punktu widzenia harmonizacji usług jest Rozporządzenie unijne. Draft rozporządzenia został opublikowany przez Komisję Europejską w dniu 04.06.2012 roku [3], a sam fakt publikacji został po raz pierwszy ogłoszony publicznie w Polsce, w trakcie konferencji EFPE . Warto nadmienić, że Rozporządzenie Unii Europejskiej jest aktem prawnym zasadniczo różniącym się od Dyrektywy. O ile Dyrektywa jest implementowana przez kraje członkowskie w prawie krajowym, o tyle Rozporządzenie nie pozostawia tego rodzaju swobody. Rozporządzenie jest stosowane bezpośrednio. Zastosowanie tego rodzaju aktu oznacza z jednej strony brak rozbieżności na poziomie krajów członkowskich, ale oznacza także, że państwa członkowskie nie mają możliwości korygowania tych przepisów, które z ich punk-tu widzenia są uciążliwe. Przykładowo, jeśli zapisy rozporządzenia będą wykluczać możliwość zastosowania w kontaktach z administracją publiczną określonego rodzaju mechanizmu, nie będzie można stosować tego mechanizmu, bez względu na fakt jakie koszty z tego powodu będzie musiało poni... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
RFID technique in remote control system (Piotr Jankowski-Mihułowicz, Grzegorz Tomaszewski, Mariusz Węglarski)
RFID transponder advantages in remote control system RFID technique implementations in remote control systems give new opportunities in creating building automation or navigation systems that have potential to be used directly in consumer application [1-5]. In these proposals, RFID transponders can be implemented in non-typical way, as a remote trigger of an action [2, 5]. The two approaches to utilizing transponder intrinsic properties are possible in designing such a system. The first one is based on the typical object identification feature that takes place in a stationary interrogation zone (IZ) of RFID system (e.g. access control systems to a places or resources) [6, 7, 8]. The second approach assumes object identifications in several IZs [3, 4, 9]. It means that the recognized objects have fixed locations whereas the RWD (read/write device) dynamically changes position (the IZ moves in space). Of course, there is a possibility of combining both methods [2]. Authors propose a non-conventional use of the RFID system in smart building automation technology. The solution releases user from necessity to manually trigger actions in control process... więcej»

Ocena symetrii postawy w teście stabilografii nadążnej (Tomasz Łukaszewicz, Dariusz Kania, Zenon Kidoń, Krystyna Pethe-Kania )
Stabilografia jest metodą diagnostyczną, w ramach której rejestrowane są, a następnie analizowane trajektorie zmian sił nacisku stóp człowieka na płaszczyznę jego podstawy. Przyrządem umożliwiającym pomiar trajektorii stabilograficznych jest specjalizowane urządzenie sensoryczne zwane platformą stabilograficzną [1]. Dwupłytowa platforma stabilograficzna wraz z oryginalnym oprogramowaniem pozwalającym na przeprowadzenie badań przedstawionych w niniejszym artykule została opracowana w Instytucie Elektroniki Politechniki Śląskiej. Podstawowe dane związane z konstrukcją platformy, jak i sposobem parametryzacji trajektorii stabilograficznych można znaleźć w pracach [1, 13, 15]. Z systemowego punktu widzenia układ utrzymywania równowagi ciała człowieka stanowi trójwejściowy blok regulacji [2]. Jego sygnały wejściowe generowane są przez układy: wzrokowy, przedsionkowy oraz somatosensoryczny (proprioceptywny i skórny). Układ wzrokowy odpowiedzialny jest za sygnalizację zmian położenia przestrzennego ciała względem otoczenia. Układ przedsionkowy dostarcza informacji na temat orientacji ciała względem wektora pola grawitacyjnego. Układ somatosensoryczny jest natomiast źródłem danych dotyczących fizycznego kontaktu kończyn dolnych z powierzchnią reakcyjną podłoża [3, 4]. System nerwowy, na bazie dostarczanych informacji, wytwarza impulsy sterujące wybranymi partiami układu mięśniowego, kompensując zaburzenia stabilności posturalnej. Należy podkreślić, iż system stabilizacji posturalnej człowieka jest w istocie układem samoistnie niestabilnym, stale wytrącanym ze stanu równowagi i jednocześnie kompensującym powstałe dewiacje [5]. Platforma stabilograficzna umożliwia rejestrację przemieszczeń punktu przyłożenia wypadkowej sił nacisku stóp na płaszczyznę podparcia - COP (ang. Center of Pressure). Ze względu na fizyczne trudności w realizacji pomiaru przemieszczeń rzeczywistego środka ciężkości ciała człowieka zastępczo mierzona jest tra... więcej»

60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Influence of the internal electrolyte composition on amperometric sulphur dioxide sensor properties (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski )
Amperometric sensors due to theirs high sensitivity and good dynamic properties are frequently used in toxic gases concentrations monitoring. Most of them are based on liquid electrolytes. Up to now usage of solid polymer electrolyte (SPE) membrane with layer of porous, metal electrode in construction of such sensors is the most successful approach. Main advantages of this type of sensors are a very high active area of the working electrode (WE) and a short response time. To obtain WE in the form of a porous layer on conductive polymer membrane several kinds of methods, such as chemical deposition, metal vapour deposition, electrochemical deposition or painting can be used [1]. Some work concerning detection of sulphur dioxide with usage SPE electrode have been published so far [2-6]. In these studies different internal electrolytes, such as 1M HClO4 [2], 0.1M HClO 4 [3], 1M H2SO4 [4], 1M NaOH [4], 5M H2SO4 in water [5, 6] and 5M H2SO4 in mixture of water and different organic solutions [5, 6] have been used. Jacquinot at al published studies in which influence of concentration of H2SO4 on SPE sensitivity for SO2, NO and NO2 has been presented [7]. It has been proved that sensitivity of the SPE for SO2 decreases with increase of the internal electrolyte solution concentration. In this work performance of SO2 sensor is investigated. The main goal of this research is to determine the influence of internal electrolyte composition on the sensor properties. Sensor filled with 1M and 5M sulphuric acid has been prepared. Responses of the sensor in the atmosphere containing different concentration of SO2 or different interfering gases have been measured. Experimental Sensor structure is similar to one the described elsewhere [8]. In [8] metal layer on Nafion membrane was deposited by vacuum sublimation. Otherwise then in ear... więcej»

Meander monopole LTCC antenna for ISM 2.4 GHz (Jan Macioszczyk, Arkadiusz Dąbrowski, Piotr Słobodzian, Leszek Golonka)
Rapid and progressive growth of wireless communication, especially mobile telephony and positioning systems, creates a need for exploration of electromagnetic spectrum in high frequencies (microwaves and millimeter waves). Therefore, modern technical solutions should be multifunctional and hence multiband (in terms of operating frequency) as well as of small size, good quality and reliable [1]. Integrated microwave systems are manufactured using silicon, thin film and LTCC technologies [2]. All of the mentioned technologies are suitable for manufacturing micro- and millimeter waves components, with comparable good electrical parameters. In this paper design, manufacturing and measurements of the microwave monopole antennas are described. Measurements of S11 parameter, comparison between experiment and simulations, tuning of antenna and discussion is presented. Design of the antenna The antenna was designed and manufactured in the LTCC technology. The desired fr... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»