profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-11

zeszyt-4222-elektronika-konstrukcje-technologie-zastosowania-2014-11.html

 
W numerze m.in.:
W dniach 9-13.06.2014 roku w hotelu JAN w Darłówku Wschodnim odbyła się TRZYNASTA KRAJOWA KONFERENCJA ELEKTRONIKI (Włodzimierz Janke)
Referaty prezentowane w formie ustnej lub plakatowej były podzielone na tradycyjne grupy tematyczne: Materiały i technologie elektroniczne, Elementy elektroniczne, Układy analogowe, Układy cyfrowe, Energoelektronika, Optoelektronika, Szumy, zakłócenia, ograniczenia cieplne i niezawodność, Zastosowania układów elektronicznych, Systemy elektroniczne w mechatronice, zorganizowano także sześć Sesji Specjalnych: 1. Przezroczyste półprzewodniki tlenkowe (nowa klasa materiałów półprzewodnikowych dla przezroczystej elektroniki, optoelektroniki, fotowoltaiki i technik sensorowych). Organizatorzy: Prof. dr hab. Marek Godlewski - Instytut Fizyki PAN - Warszawa Prof. dr hab. inż. Anna Piotrowska - ITE - Warszawa 2. Zobrazowanie i pomiary w podczerwieni - krajowe potrzeby i możliwości... więcej»

Charakterystyki progowe, wzmocnienie i własności optyczne laserów kaskadowych (Kamil Pierściński, Dorota Pierścińska, Piotr Gutowski, Artur Trajnerowicz, Piotr Karbownik, Maciej Bugajski)
Od momentu demonstracji kwantowego lasera kaskadowego (Quantum Cascade Lasers - QCLs) w 1994 r. przez grupę prof. Capasso z Bell Labs [1], przyrządy te przechodzą gwałtowny rozwój [2]. Lasery kaskadowe są obecnie bardzo szybko rozwijającą się grupą laserów półprzewodnikowych emitujących w zakresie średniej podczerwieni (3.5- 24[mikro]m) jak i w zakresie terahercowym (1.2- 4.9 THz). Warunkiem koniecznym do zwiększenia wydajności i niezawodności laserów kaskadowych w wyższych temperaturach pracy jest kompleksowa charakteryzacja, wyznaczenie charakterystyk progowych, wzmocnienia i własności optycznych laserów kaskadowych. Wzmocnienie i straty falowodowe są kluczowymi parametrami wpływającymi między innymi na wydajność laserów, są one także niezbędne w projektowaniu numerycznym przyrządów. Wyznaczenie tych parametrów jest istotne w optymalizacji projektu struktury/obszaru aktywnego kwantowego lasera kaskadowego pod kątem wydajności pracy i prądu progowego. Jednocześnie, określenie właściwej równowagi pomiędzy stratami falowodowymi i opornością elektryczną struktury jest ważne dla wydajnej pracy przyrządu. Praca ta przedstawia wyniki analizy elektrooptycznej kwantowych laserów kaskadowych zaprojektowanych na pasmo emisji 9-10 [mikro]m, projektowanych i wytwarzanych w Instytucie Technologii Elektronowej w Warszawie [3-7]. Charakteryzacja elektrooptyczna laserów kaskadowych Charakteryzacja elektrooptyczna zmontowanych laserów kaskadowych obejmuje pomiary charakterystyk LIV (moc optyczna w funkcji prądu, charakterystyki prądowo napięciowe) oraz charakterystyk spektralnych. Pomiary te pozwalają wyznaczyć m.in. prąd progowy (Jth), który przy wykorzystaniu metody "1/L" (pomiar prądu progowego kilku przyrządów o różnych długościach rezonatora) pozwala na wyznaczenie współczynnika wzmocnienia (gΓ) i strat falowodowych laserów ... więcej»

Epitaksja struktur laserów kaskadowych (Piotr Gutowski, Iwona Sankowska, Justyna Kubacka-Traczyk, Krystyna Gołaszewska-Malec, Maciej Bugajski, Justyna Grzonka )
Kwantowe lasery kaskadowe to półprzewodnikowe unipolarne emitery w zakresie średniej podczerwieni. W tym zakresie długości fal najczęściej wykorzystywany jest układ materiałowy AlGaAs/ GaAs oraz InAlAs/InGaAs na podłożu InP. Pierwszy charakteryzuje się jedynie pracą impulsową w temperaturach pokojowych, natomiast drugi może osiągnąć pracę ciągłą w temperaturach przekraczających 400K [1]. Sprawia to, że tylko on realnie pozwala spełnić standardy wymagań stawianych kwantowym laserom kaskadowym w elektronice. Heterostruktury tych przyrządów wytwarzane są najczęściej za pomocą epitaksji z fazy gazowej MOVPE lub epitaksji z wiązek molekularnych MBE. Struktura epitaksjalna obszaru aktywnego składa się z kilkuset ultracienkich warstw o różnej grubości powtórzonych w sekwencji kaskad, natomiast struktura falowodowa, stanowiąca znaczną pod względem ilościowym część przyrządu, z warstw relatywnie grubych. Stwarza to trudności w wykonaniu tego przyrządu, gdyż należy liczyć się z doborem optymalnej prędkości wzrostu dla całej heterostruktury. Ustalenie wszystkich parametrów jest bardzo czasochłonne i trudne, a wymagania powtarzalności i precyzji stanowią duże wyzwanie technologiczne. Powoduje to wciąż ograniczenia w komercjalizacji tych przyrządów, która praktycznie sprowadza się do małoseryjnej produkcji laboratoryjnej. Zakres badań Celem prowadzonych badań było opanowanie technologii struktur laserów InAlAs/InGaAs dopasowanych sieciowo do podłoża z InP. W toku prowadzonych prac zostały przebadane cztery różne konstrukcje wykonania falowodu. W pierwszej konstrukcji górny falowód wykonany był z InAlAs, natomiast w roli dolnego falowodu wykorzystano niskodomieszkowane podłoże InP 2e17 cm-3. Zastosowanie podłoża jako dolnego falowodu uprościło i skróciło znacznie proces epitaksjalny, co stanowiło dobry punkt wyjścia do demonstracji pracy samego przyrządu i dalszego rozwoju technologii. Domieszkowanie zostało tak dobrane, aby ograniczyć a... więcej»

Kwantowe lasery kaskadowe - 20 lat historii i stan obecny (Maciej Bugajski, Anna Wójcik-Jedlińska)
4 stycznia 2014 r. obchodziliśmy 20. rocznicę zademonstrowania nowego typu lasera półprzewodnikowego - kwantowego lasera kaskadowego. Osiągniecie to ogłoszono w pracy opublikowanej 22 kwietnia 1994 r. w Science [1]. Przyniosła ona natychmiastowy rozgłos swoim sześciu autorom, którymi byli: Jerome Faist, Federico Capasso, Deborah Sivco, Carlo Sirtori, Albert Hutchinson i Alfred Cho z Bell Labs w Holmdel NJ. Praca ta zapoczątkowała intensywne badania nad tymi przyrządami w wielu laboratoriach w Europie, Ameryce i Azji. W kolejnych latach lasery kaskadowe zrewolucjonizowały fotonikę podczerwieni, stając się niezastąpionym źródłem światła spójnego w metrologii i spektroskopii molekularnej. Kwantowe lasery kaskadowe stanowią nową klasę unipolarnych laserów półprzewodnikowych, których działanie oparte jest na przejściach wewnątrzpasmowych. W odróżnieniu od klasycznych laserów półprzewodnikowych wykorzystujących przejścia międzypasmowe, długość fali emitowanego przez nie promieniowania praktycznie nie zależy od materiału, z którego są wykonane a jedynie od geometrii jam kwantowych stanowiących ich obszar czynny. Zasada działania lasera kaskadowego przedstawiona jest na rys. 1. Pozwala to na pokrycie szerokiego spektrum, długości fal od średniej do dalekiej podczerwieni za pomocą struktur wytwarzanych na bazie GaAs i InP, materiałów których technologia jest doskonale opanowana. Kaskadowa natura generacji promieniowania pozwala na powielanie fotonów i potencjalnie umożliwia uzyskiwanie mocy przekraczających te, które generowane są w laserach bipolarnych. Z kolei obecność tylko jednego rodzaju nośników (elektronów) eliminuje większość niekorzystnych procesów rekombinacji niepromienistej. Listę zalet laserów kaskadowych zamyka ich subpikosekundowa szybkość działania wynikająca z ultraszybkiej dynamiki przejść wewnątrzpasmowych. Lasery kaskadowe są idealnym źródłem promieniowania w układach detekcji zanieczyszczeń gazowych i systemach t... więcej»

Modelowanie wybranych właściwości lasera kaskadowego w oparciu o formalizm NEGF w reprezentacji energetycznej (Mariusz Mączka, Stanisław Pawłowski)
W tym roku mija dwadzieścia lat od momentu, kiedy grupa naukowców pod kierownictwem J. Faista i F. Capasso zaprezentowała w laboratoriach Bella pierwszy działający laser kaskadowy [1]. Na przestrzeni tego okresu powstało wiele nowych rozwiązań konstrukcyjnych tego przyrządu [2-4], wśród których ważne miejsce zajmuje laser [5] wykonany w 2009 roku przez polskich naukowców z ITE w Warszawie. Zbudowany na podłożu GaAs emituje on światło o długości fali ~9 [mikro]m i mocy ok. 1 W. Prace nad udoskonalaniem uzyskanego prototypu trwają w dalszym ciągu, czego efektem są opisane w pracach [6, 7] nowe rozwiązania o ulepszonych parametrach. Aby jednak był możliwy dalszy postęp w tej dziedzinie, potrzebne jest współdziałanie różnych ośrodków naukowych, z których część zajmuje się symulacjami laserów kaskadowych. W wyniku takiej współpracy powstała pierwsza wersja programu [8, 9], który umożliwia symulacje zjawisk kwantowych zachodzących w strukturze lasera kaskadowego. Metoda numeryczna będąca podstawą działania tego programu wykorzystuje formalizm nierównowagowych funkcji Greena. Okazuje się jednak, że w przypadku złożonych struktur staje się bardzo wymagająca pod kątem rozmiaru pamięci komputera oraz czasu trwania symulacji. Dlatego rozpoczęto prace nad nowym modułem programowym, w którym dokonuje się transformacji stanów energetycznych, występujących w przestrzennej strukturze lasera, na stany reprezentowane wyłącznie dziedzinie energii. Poprzez takie działanie uzyskujemy małe rozmiary macierzy hamiltonianu przyrządu a przez to, wydatnie zwiększamy szybkość symulacji. W zależności od stosowanego podejścia można w tym celu użyć albo funkcji Wanniera (przypadek dla nieskończonego modelu struktury lasera oznaczonego w pracy jako MN) albo odpowiednio całkowanych w dziedzinie energii funkcji falowych, otrzymanych w wyniku klasycznego podejścia do rozwiązywania równania Schrödingera w układzie wielu studni kwantowych (przypadek dla skończo... więcej»

Zobacz wszystkie publikacje »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Przestrzennie skorelowana, submikrometrowa analiza właściwości morfologicznych, mechanicznych i chemicznych kompozycji epoksydowej domieszkowanej nanokrzemionką (Andrzej Sikora, Łukasz Bednarz, Joanna Warycha, Leszek Moroń)
Kompleksowe badania materiałów, a w szczególności tzw. nanomateriałów w skali submikrometrowej pozwalają na uzyskanie cennych informacji na temat ich właściwości. Zastosowanie takich narzędzi jak mikroskopia elektronowa [1, 2] oraz mikroskopia bliskich oddziaływań [3, 4] pozwala na uzyskanie szerokiego spektrum danych na temat właściwości m.in.: morfologicznych [5], mechanicznych [6, 7], czy też chemicznych [8, 9]. Rosnąca dostępność i popularność tych technik pomiarowych w znaczącym stopniu wpłynęła na dynamiczny rozwój współczesnej inżynierii materiałowej [10]. Intensywne badania nad nanomateriałami izolacyjnymi podyktowane są zapotrzebowaniem rynku energetycznego na elementy charakteryzujące się zwiększoną odpornością na zabrudzenie oraz działanie czynników atmosferycznych (promieniowanie słoneczne, temperatura, wilgotność), lepszą wytrzymałością elektryczną, odpornością na działanie łuku elektrycznego, mniejszą masą czy też wreszcie niższą energochłonnością w procesie wytwarzania itd. [11-14]. Obiecujące w tym zakresie są kompozyty polimerowe z dodatkiem tzw. nanowypełniaczy, które ze względu na dużą powierzchnię interfazy z materiałem matrycy, radykalnie zmieniają jej parametry. Jedną z grup materiałów, które są obiektem zainteresowań w kontekście wyżej wspomnianych wymagań, są kompozycje epoksydowe zawierające nanodomieszki (np. krzemionka czy też montmorylonit). Ich badania realizowane są zarówno w skali makroskopowej, w celu weryfikacji finalnych parametrów produktów, jak również w nanoskali, aby ocenić wpływ parametrów poszczególnych procesów technologicznych na strukturę materiału i jego właściwości. Należy zwrócić uwagę na fakt, iż wieloetapowe badania właściwości powierzchni próbek w nanoskali z wykorzystaniem różnych metod pomiarowych, przy braku odpowiedniego rozwiązania umożliwiającego precyzyjne pozycjonowanie próbki, pociągają za sobą ryzyko realizacji pomiarów w różnych lokalizacjach. Ze względu na lokaln... więcej»

Optimization of neural network for current converter control (Marcin LIS, Piotr KOZIERSKI, Michał KRYSTKOWIAK, Adam OWCZARKOWSKI)
In previous articles [1, 2] H-bridge power converter has been used as an independent current source, which can be used for generation of the reference signal, pass energy to grid-on connections or compensating harmonics of non-linear loads. Neural network has been chosen as control regulator and it fulfilled its task well. The only downside of neural control was complicated structure of the network, which may restrict the choice of processor unit to achieve this control. Main goal of this article was to check, if neural network can have different structure, with preferably minimal number of neurons and weights. In following pages object is described. Next control scheme is presented. Then optimization method made using Genetic Algorithm has been shown, followed by neural network. Last, simulation results are presented, followed by conclusions. Object The object is a single-phase power electronics H-bridge inverter, in which control signal is current of the load. Its block diagram implemented in GeckoCIRCUIT software is presented in Figure 1. It consists of the following parts: a MOSFET transistor H-bridge, LC filter, almost purely inductive load with current measurement in load branch. Object parameters: ... więcej»

Stanowisko do badania dźwigni mikromechanicznych wzbudzanych elektromagnetycznie (Wojciech Majstrzyk, Daniel Kopiec, Kamil Raczkowski, Anna Gosiewska, Michał Świątkowski, Andrzej Sierakowski, Piotr Grabiec, Teodor Gotszalk )
Dźwignie mikromechaniczne wykonywane są przeważnie z krzemu monokrystalicznego (Si), tlenku krzemu SiO2 lub azotku krzemu (Si3N4) w postaci belki sprężystej jednostronnie utwierdzonej. Długość tego typu przyrządów wynosi z reguły setki mikrometrów, natomiast grubość może zmieniać się w zakresie od pojedynczych mikrometrów do setek nanometrów. Układy tego typu stanowią zatem systemy MEMS (ang. Micro Electro-Mechanical System) lub NEMS (ang. Nano Electro-Mechanical System). Dźwignię mikromechaniczną modeluje się matematycznie wykorzystując teorię wytrzymałości materiałów, gdzie przyrząd mikromechaniczny opisuje się jako klasyczną belkę jednostronnie utwierdzoną - obowiązują te same prawa i zależności. Z punktu widzenia zastosowań, dźwignie takie mogą pracować jako układy statyczne lub jako układy dynamiczne, inaczej mówiąc - rezonansowe. Stosowane są zazwyczaj jako układy służące do pomiaru sił oddziaływań między cząsteczkami lub jako układy do pomiaru masy oraz jej zmiany [1]. Dźwignie przeznaczone do pracy w trybie statycznym powinny charakteryzować się jak najmniejszą sztywnością. Natomiast dźwignia pracująca w trybie rezonansowym powinna charakteryzować się możliwie wysoką częstotliwością drgań własnych przy zachowaniu niewielkiej sztywności. W wypadku dźwigni zawierających aktuator wychylenia, zakres ich stosowalności rozszerza się o mikro- oraz nanomanipulację. Parametrem wiążącym pomiary sił, masy oraz manipulację jest sztywność. W tym przypadku można zapisać wzór (1), wiążący siłę F działającą na koniec belki z jej ugięciem z w postaci: F = kz (1) Z powyższej zależności wynika również fakt, że drugim istotnym czynnikiem jest pomiar ugięcia mikrodźwigni. W literaturze notuje się bardzo wiele metod detekcji wychylenia końcówki dźwigni, jednak największe czułości oraz rozdzielczości zapewniają metody optyczne, jak na przykład metoda interferometryczna czy natężeniowa [2]. W niniejszej pracy metody optyczne stanowią pod... więcej»

Chip-Scale Atomic Magnetometers (CSAMs) as a new device for medical applications (Magnetometry atomowe (CSAMs) jako nowe urządzenie (Anna Jodko, Michał Władziński, Tadeusz Pałko)
Electrophysiological phenomena in the human body lead to the occurrence of magnetic field. In medical practice magnetic field associated with currents arising from electrical activity of heart (magnetocardiography) and brain (magnetoencephalography) are analysed. Due to the identical source of magnetographic and electrographic signals, which are the ionic currents flowing through the cardiac muscle fibers or activity of the cerebral cortex neurons, ECG/MCG and EEG/MEG signals contain similar components and their diagnostic value is comparable. However, non-contact measurements of biomagnetic field allow to avoid difficulties associated with the use of electrodes, such as poor electrode contact with the skin, the presence of insulating layers (fat, bones) and varied conductivity of the body tissues. These factors reduce the accuracy of electrographic measurements. One of the specific applications of magnetography are the studies of fetal development. The vernix caseosa surrounding the fetus at the end of the second and in the third trimester of pregnancy has low electrical conductivity, which results in the small amplitude and also small signal to noise ratio of electrographic signal received from the pregnant abdomen. Fetal electrocardiogram (fECG) requires samples averaging, which makes the analysis of many arrhythmias appearing in a single cardiac cycle very difficult [6]. Although it is possible to assess the mechanical activity of fetal heart in echocardiographic studies (vernix caseosa do not significantly affect t... więcej»

Two types of atmospheric pressure plasma jet - construction and features (Michał Babij, Zbigniew W. Kowalski)
Low temperature atmospheric pressure plasmas (APPs) represent a rapidly developing technology of great application promise. The relative low cost (cheaper and more convenient alternative in comparison with low-pressure plasmas) and desirable properties including: (a) low gas temperature, (b) the reduced or no thermal damage to the substrate, (c) vacuumfree operation, (d) high reactive chemical species, and (e) easy plasma dynamics control caused that the study in applications of atmospheric plasma treatment has been gradually increased. Among other things APPs are routinely used in material processing [1] and, more recently, in industrial [2] and biomedical applications [3] (e.g. bacterium, yeast, fungus, and alga inactivation, cancer cell treatment, decontamination, wound healing, electrosurgery, tissue engineering, surface modification of biocompatible materials, sterilization of heat sensitive materials and instruments, blood coagulation promotion, and tooth root canal sterilization). One of the attractive features of the plasmas in question is the ability to achieve enhanced plasma chemistry without the need for elevated gas temperatures. This is because these plasmas exhibit electron energies much faster than the heavier ions and the neutral species and have the opportunity to heat up before their environment heats up. The gas remains at low temperature and the plasma does not cause any thermal damage to objects it comes in contact. Atmospheric pressure plasmas are generated by a diversity of electrical discharges such as corona discharges, dielectric barrier discharges (DBD), micro hollow cathode discharges and so on, all having their own properties and use [4-8]. Among atmospheric pressure plasmas the atmospheric pressure plasma jet (APPJ) should be mentioned. The phenomenon of APPJ can date back to 1960 s. It is more efficient than the others due to high charged particle and reactive species density in the plasma, lo... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Optical spectroscopy of polyazomethine-PCBM nanostructures (Krzysztof P. Korona, Sylwia Grankowska, Agnieszka Iwan, Tatiana Korona, Dorota Rutkowska-Zbik, Maria Kamińska)
For many years scientists work on improvement of solar cell - photovoltaic devices, that convert the radiation of the Sun into electricity. The importance of developing efficient solar cells for providing energy and reducing pollution is obvious. Looking for a cheap material for high-area solar cells, researchers developed cells based on organic polymers. One of the most promising candidates is a mixture of poly(3-hexylthiophene) (P3HT) [1]. However, materials such as P3HT are very sensitive to moisture or to oxygen.An attractive alternative to P3HT could be polyazomethines (PAZ). PAZ, which are conjugated polymers possessing imine bonds (HC=N-), are very promising stable materials. Several groups tried to apply polyazomethines in such devices as OLEDs or organic solar cells [2-4]. The chemical formula of one of the most promising azomethines, 25Th-cardo - based on thiophene and cardo moieties - is drawn in Fig. 1. Conducting conjugated polymers, like azomethine, can be used in bulk heterojunction (BHJ) solar cells. The BHJ solar cells comprise of nanoscale interpenetrating networks of a donor material (in our case PAZ) and an acceptor material. When light creates an exciton in the donor material, it diffuses to the heterojunction and there it dissociates. The electron is transferred to the acceptor and the hole stays in the donor. The separated charges are transported by networks to the electrodes. The most popular acceptor is a fullerene derivative, [6,6]-phenyl-C61 butyric acid methyl ester (PCBM) [5, 6], therefore in our study we used a mixture of polyazomethine and PCBM [7]. Theoretical calculations Theoretical calculations of the electronic spectrum of azomethine were performed by means of time-dependent density functional theory (TD-DFT) with the CAM-B3LYP functional [8] and the def2- QZVP orbital basis set [9]. The G09 program [10] has been used for computing all presen... więcej»

Obliczenia z pierwszych zasad własności defektów rodzimych w ZnRh2O4 (Oksana Volnianska, Piotr Bogusławski)
Przezroczyste tlenki przewodzące charakteryzuje zarówno wysoka przezroczystość w obszarze światła widzialnego, jak i wysoka ruchliwość nośników i dobre przewodnictwo elektryczne, co powoduje iż są one istotne z punktu widzenia zastosowań [1]. Większość tlenków wykazuje przewodnictwo typu n. Badania prowadzone w ostatnim okresie poświęcone były w znacznej mierze uzyskaniu przewodnictwa typu p. Dwie grupy tlenków, mianowicie delafosyty CuXO2 (X = Al, Ga, In) [2] i spinele ZnX2O4 (X = Co, Rh, Ir), wykazują przewodnictwo typu p [3-6], które może być aktywowane termicznie poniżej temperatury pokojowej, i przybiera wartości rzędu 0,4-3,4 S/cm w T = 300 K [5]. Co więcej, struktura elektronowa obu grup jest zbliżona. Najwyższe przewodnictwo elektryczne zaobserwowano dla X = Rh i Ir [5]. W szczególności własności ZnRh2O4 są obiecujące dla optoelektroniki. Pomiary Mizoguchiego i in. wykazały, iż w ZnRh2O4 optyczna przerwa wzbroniona Egap wynosi 2,1 eV [3]. W pracy tej przyjęto, iż wierzchołek pasma walencyjnego (VBT) jest zbudowany z orbitali 4d 6 atomów Rh w stanie niskospinowym. Dokładniejsze pomiary Dekkersa i in. [5] wykazały, że Egap = 2,74 eV, zaś przewodnictwo typu p zostało przypisane obecności dziur. Równolegle z badaniami doświadczalnymi prowadzone były obliczenia teoretyczne struktury elektronowej [4, 7-9] w ramach teorii funkcjonału gęstości. Potwierdziły one hipotezę wysuniętą w pracy [3], że przerwa wzbroniona jest utworzona pomiędzy stanami 4d(Rh) rozszczepionymi przez oktaedryczne pole krystaliczne na zapełniony tryplet t2g i pusty dublet eg. Orbitale d znajdują się w konfiguracji niskospinowej. Zbliżoną strukturę pasmową otrzymano w pracach [8, 9] przy zastosowaniu funkcjonałów hybrydowych, które prowadzą do wartości Egap bliższej wartości doświadczalnej. W pracy [10] przeprowadzono obliczenia struktury pasmowej idealnego materiału i defektów stosując przybliżenie uogólnionego gradientu (GGA), które wykazały też istotn... więcej»

Ograniczenie zjawiska pustek w spoinach lutowniczych wykonanych metodą próżniowego lutowania kondensacyjnego (Beata Synkiewicz, Krzysztof Witek, Agata Skwarek)
Podstawowe cechy próżniowego lutowania kondensacyjnego Lutowanie kondensacyjne znane również jako lutowanie w parach nasyconych (ang. Vapor Phase Soldering VPS) wykorzystuje do podgrzania lutowanych elementów energię cieplną par uwolnioną podczas kontaktu z nimi. Pary są wytwarzane przez podgrzanie cieczy o dużej gęstości, która posiada stały punkt wrzenia. Kondensacja par trwa tak długo dopóki element nie osiągnie temperatury par. Ze względu na dużą gęstość par, warstwa ciekłej substancji wypiera tlen z powierzchni elementu. W efekcie tego mamy do czynienia z procesem podgrzewania i lutowania w środowisku pozbawionym tlenu. Przekazywana ilość ciepła jest liniowa w stosunku do dostarczonej energii cieplnej. Po wyjęciu płytek z obszaru grzania, w ciągu kilku sekund następuje odparowanie ciekłej warstwy z modułów, bez osadu, gdyż ciecz jest obojętna. Podstawowe zalety do lutowania w fazie gazowej są następujące: - lutowanie odbywa się w atmosferze beztlenowej, eliminując np. potrzebę stosowania azotu, - gwarantowana jest kontrola maksymalnej temperatury w komorze lutowniczej dzięki własnościom fizycznym zastosowanej cieczy - typowo 230 st. C do lutowania bezołowiowego oraz 200 st. C do lutowania z zastosowaniem spoiw ołowiowych, co skutkuje, także szczególnie dla lutowania bezołowiowego, o wiele węższym "oknem temperaturowym" procesu, - lepszy transfer ciepła dzięki wykorzystaniu do tego celu cieczy zamiast powietrza lub azotu, a w związku z tym brak miejscowych przegrzań, efektu "cienia", a także obojętność na kolor, materiał, objętość i masę lutowanych elementów elektronicznych, - elastyczna i łatwa kontrola temperatury lutowanych elementów o zróżnicowanej pojemności cieplnej aż do osiągnięcia temperatury topnienia, - zmniejszenie pustek (ang. "voids") w spoinach lutowniczych przez zastosowanie w piecu sekcji próżniowej, - ograniczenie ilości wad lutowniczych. Lutowanie elementów w faz... więcej»

Telewizor UHD o przekątnej 105 cali z wygiętym ekranem
Firma Samsung zaprezentowała w Berlinie swoje komercyjne telewizory ze skrzywionym ekranem Ultra High Definition (UHD) i zapowiedziała bogatą ofertę telewizorów profilowanych. Te nowe telewizory dostarczają wrażeń porównywalnych z wynoszonymi z kina, radykalnie zmieniają perspektywę, z jakiej widz patrzy na obraz. Zakrzywiony ekran nadaje wyświetlanym obrazom wyraz, jakiego nie można uzyskać na płaskim wyświetlaczu, a szersze pole widzenia wywołuje efekt panoramiczny, który sprawia wrażenie ekranu większego niż jest w rzeczywistości. Wklęsły ekran oznacza lepsze kąty widze... więcej»

Zastosowanie ciepłowodów do zwiększenia wydajności generatorów termoelektrycznych (Wojciech Grzesiak, Jacek Piekarski, Krzysztof Witek, Paweł Grzesiak)
Poszukiwania coraz to nowszych i coraz bardziej wydajnych źródeł energii odnawialnej doprowadziło w ostatnich latach do widocznego wzrostu zainteresowania zastosowaniem w praktyce półprzewodnikowych generatorów termoelektrycznych zwanych również termogeneratorami. Generatory te bazują na odkrytym blisko 90 lat temu tzw. efekcie Seebecka, polegającym na powstawaniu siły elektromotorycznej w obwodzie składającym się z dwóch metali lub dwóch półprzewodników o różnych, wyrażanych w μV/K, tzw. współczynnikach Seebecka, gdy ich złącza znajdują się w różnych temperaturach. Generowane napięcie wynosi przeważnie kilka do nawet kilkuset μV/K i stąd m.in. zachodzi konieczność połączenia par termoelementów w szereg składający się przeważnie od kilkudziesięciu do kilkuset sztuk. W sensie funkcjonalnym termogenerator jest stosunkowo prostą konstrukcją, której schemat pokazano na rysunku 1. Widać na nim szeregowe połączenie wielu par termoelementów umieszczonych pomiędzy dwiema okładkami izolacyjnymi, przeważnie ceramicznymi. Napięcie na wyjściu uzyskiwane jest w wyniku przepływu strumienia cieplnego pomiędzy okładkami generatora i działania efektu Seebecka. Jednym z podstawowych parametrów termogeneratorów, bezpośrednio wpływających na ich sprawność jest tzw. współczynnik efektywności ZT, którego wzór podano na rysunku 1. Jego wielkość w głównej mierze zależy od wielkości współczynnika Seebecka, ale również przewodności cieplnej i rezystancji (czym ich wartości mniejsze tym ZT większe). Obecnie, w zastosowaniach komercyjnych za typowe uznaje się uzyskanie ZT na poziomie 1÷1,2 w temperaturach 300÷5000°C, co w efekcie przekłada się na sprawność termogeneratorów na poziomie kilku procent. Tym niemniej sygnalizowane są nowe materiały wykorzystujące nanostruktury (np... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Czasopisma NT, indeksy, cytowania, bazy danych, wydawnictwa cyfrowe, bibliometria. Część 2 (Ryszard S. Romaniuk)
W części pierwszej artykułu omówiono pobieżnie kilka następujących zagadnień: czasopisma NT w erze dynamicznych mediów cyfrowych, wersja papierowa a bazodanowa czasopism, wirtualne czytelnie, zdrowe ambicje lokalnych czasopism NT wejścia do globalnych baz danych, polityka ustawodawcy dotycząca rynku wydawniczego czasopism naukowo-technicznych w kraju, otwarte wydawnictwa cyfrowe, czasopisma międzynarodowych organizacji NT, krajowe czasopisma NT, krajowy rynek wydawniczy czasopism NT, cytowania, pozycjonowanie (lokowanie) czasopism, indeksy bibliometryczne, licencjonowanie prawno-autorskie CCL, e-wydawnictwa krajowych czasopism NT - pytania z odpowiedziami i bez. W części drugiej ten pobieżny wywód jest kontynuowany z ukierunkowaniem na poważny dylemat wyboru czasopism wobec ryku wydawniczego otwartego i komercyjnego. Ponadto przedstawiono listę baz danych e-nauki i bibliograficznych oraz glosariusz wybranych terminów bibliograficznych. Ponadto powtórzono znaczne fragmenty wstępu do części pierwszej. W kraju wydawanych jest co najmniej kilkadziesiąt, liczących się także za granicą, lokalnych czasopism naukowo- technicznych (NT). Część z nich, wydawanych w języku angielskim, posiada międzynarodowe indeksy wydawnicze. Żadne z nich jednak nie posiada charakteru globalnego w sensie jakości i ilości wydawanych prac. W dziedzinie elektroniki i telekomunikacji takich czasopism o międzynarodowej renomie jest kilka, podobnie jak i w obszarze automatyki, robotyki i informatyki. Dodatkowo wydawanych jest zapewne kilkadziesiąt dobrych czasopism NT polskojęzycznych (lub także wydających okazjonalnie materiały po angielsku) cieszących się uznaniem i popularnością w swoich obszarach tematycznych w środowisku NT. Ustawodawca faworyzuje ze względów parametryzacyjnych, i internacjonalizacji krajowych środowisk NT czasopisma anglojęzyczne. Rynek wydawniczy czasopism NT jest w kraju znaczny. Czasopisma NT są znaczną częścią całego środowiska, ... więcej»

Sterowanie procesem drukowania 3D (Krzysztof Gracki )
Możliwości niskokosztowego sterowania silnikami krokowymi pozwoliły na rozpowszechnienie urządzeń poruszających się w trzech wymiarach XYZ. Jednym z takich urządzeń są drukarki. Nazwa ta nie jest adekwatna do tradycyjnego rozumienia jej działania, ponieważ w procesie "wydruku" powstaje pełnowartościowy trójwymiarowy element. Dziedzina ta szybko się rozwija i jak twierdzi Economist, technika ta będzie zaczątkiem "trzeciej rewolucji przemysłowej" opartej na cyfrowej, masowej produkcji elementów dostosowanych do indywidualnych potrzeb użytkownika [1]. Pierwsze drukarki 3D powstały w latach 80. i działały w technologii stereolitografi SLA (ang.stereolithography) [2]. Model budowany był z ciekłych polimerów, które warstwa po warstwie utwardzane były światłem ultrafioletowym bądź laserem. Innym sposobem tworzenia obiektów było wykorzystanie materiałów sypkich, które następnie spiekane są laserem czyli tzw. metody SLS (ang. Selective Laser Sintering).W pracy [3] wymieniono ponad 40 technologii używanych w druku 3D. Wśród rozwiązań domowych najczęściej używana jest technologia FDM (ang. Fused Deposition Modeling), w której roztapiany plastik układany jest warstwa po warstwie, by w efekcie utworzyć pożądany model. Najczęściej używany jest biodegradowalny polimer PLA (ang. Polylactic Acid) lub tworzywo ABS. Rysunek 1 przedstawia schemat tego typu konstrukcji. Drukarki tego typu wyposażone są w co najmniej cztery silniki krokowe, których zadaniem jest pozycjonowanie głowicy drukującej (X,Y,Z) oraz sterowanie wypływem plastiku przez tzw. ekstruder, zaznaczony na rysunku 1literą E. Wspólną cechą wszystkich rozwiązań jest to, że korzystają one z techniki addytywnej, tzn. model powstaje z użyciem kolejnych przekrojów obiektu. Konstrukcja drukarek Podczas badań związanych z budową maszyn samoreplikujących powstał projekt o nazwie RepRap. Ponieważ drukarka 3D może drukować elementy plastikowe, a wiele jej części też wykonanych jest z tworzy... więcej»

Horyzont energoelektroniczny obiektów morskich (Ryszard Strzelecki, Piotr Mysiak, Daniel Wojciechowski)
Charakter i kierunki rozwoju energoelektroniki Współczesna energoelektronika, której początki sięgają komercjalizacji tyrystora SCR (Silicon Controled Rectifier) przez firmę General Electric w 1958 r., jest jednym z wielkich sukcesów XX wieku. Skupiając różne techniki impulsowego przekształcania parametrów energii elektrycznej (EE), energoelektronika umożliwia dynamiczne sterowanie i dopasowanie parametrów źródeł zasilania na potrzeby zasilanych urządzeń, ze sprawnością bliską 100%. Jej rozwój, w perspektywie XXI w., ściśle wiąże się z wdrożeniami nowych, w pełni sterowalnych przyrządów energoelektronicznych. Przykładowo, od niedawna szybko upowszechniają się zastosowania przyrządów na bazie węglika krzemu. Mimo to, jak na razie, rozwój energoelektroniki, w szczególności w zakresie większych mocy, bazuje głównie na przyrządach krzemowych. Dąży się przy tym do osiągania coraz większych prądów przewodzenia, wyższych napięć blokowania oraz korzystniejszych właściwości dynamicznych (wyższych częstotliwości łączeń). Stan aktualny parametrów pracy ważniejszych przyrządów energoelektronicznych przedstawiono na rys. 1. Ze względu na charakter interdyscyplinarny, rozwój energoelektroniki zależy również od postępu w wielu innych obszarach, a nie tylko w fizyce ciała stałego. Wynika to zarówno z samego przedmiotu energoelektroniki, jak i obszarów aplikacji urządzeń energoelektronicznych (UE). W szczególności są to: napędy precyzyjne prądu stałego i przemiennego z maszynami konwencjonalnymi i specjalnymi, w tym o magnesach trwałych; napędy bardzo dużej mocy i/lub średniego napięcia, w tym napędy trakcyjne, na statkach i okrętach, młynów, taśmociągów itp.; napędy i zasilanie ekologicznych pojazdów elektrycznych lub hybryd... więcej»

Przyrządy półprzewodnikowe z węglika krzemu - pomiary, modelowanie i aplikacje (JANUSZ ZARĘBSKI, DAMIAN BISEWSKI, JACEK DĄBROWSKI, KRZYSZTOF GÓRECKI, KAMIL BARGIEŁ, JOANNA PATRZYK)
Kluczową rolę w rozwoju elektroniki i energoelektroniki pełnią elementy półprzewodnikowe, w tym elementy mocy o coraz lepszych parametrach. Materiały półprzewodnikowe stanowią podstawowy materiał w konstrukcji elementów mocy. Na przestrzeni ostatnich kilkudziesięciu lat nastąpił gwałtowny rozwój i postęp technologiczny pozwalający na wykorzystanie w tym celu materiałów półprzewodnikowych o coraz doskonalszych właściwościach. Oprócz powszechnie już stosowanych w przemyśle elektronicznym materiałów półprzewodnikowych, takich jak krzem i arsenek galu, pojawiają się nowe materiały, czego przykładem może być węglik krzemu. W pracy przedstawiono wyniki badań prowadzonych w Katedrze Elektroniki Morskiej (KEM) Akademii Morskiej w Gdyni w zakresie modelowania i pomiarów zarówno przyrządów SiC, jak i układów elektronicznych z tymi przyrządami. Właściwości węglika krzemu Dopuszczalne wartości parametrów roboczych półprzewodnikowych przyrządów mocy takich, jak napięcia i prądy zaciskowe, temperatura wnętrza, gęstość mocy oraz częstotliwość pracy, w dużym stopniu zależą od parametrów materiałowych oraz właściwości półprzewodników stosowanych do konstrukcji tych przyrządów. W tabeli 1 porównano wartości wybranych parametrów materiałowych, tj. szerokości przerwy energetycznej Eg, krytycznego natężenia pola EC, ruchliwości elektronów μn i dziur μp, prędkości nasycenia elektronów νS, koncentracji samoistnej ni oraz przewodności cieplnej λth krzemu oraz węglika krzemu o odmianie krystalicznej (politypii) 4H. 3-krotnie wyższą wartością szerokości przerwy energetycznej Eg, 8-krotnie wyższą wartością krytycznego natężenia pola EC, 2-krotnie wyższą wartością prędkości nasycenia elektronów νS oraz ponad 3-krotnie wyższą wartością przewodności cieplnej λth, co potencjalnie stwarza możliwość wytwarzania z tego materiału przyrządów półprzewodnikowych o wyższej wytrzymałości napięciowej i temperaturowej, a także o mniej... więcej»

Zastosowanie materiałów elektrochromowych do kamuflażu optycznego fotowoltaicznych źródeł zasilania urządzeń wojskowych (Adam JANUSZKO, Marcin SZCZEPANIAK)
Zastosowanie baterii słonecznych w urządzeniach wojskowych daje możliwość korzystania z niewyczerpalnego źródła energii elektrycznej, jakim jest energia słoneczna. Ze względu na realizacje długotrwałych operacji militarnych (również podczas misji zagranicznych) na otwartej przestrzeni niosą one ryzyko utraty zasilania urządzeń militarnych. Uzasadnione jest więc wykorzystanie tego typu alternatywnych źródeł energii - rysunek 1. Innym przykładem implementacji mogą być autonomiczne i bezobsługowe systemy obserwacyjne lub ochronny zasilane z akumulatorów, co przedstawia rysunek 2. Wykorzystanie baterii słonecznych daje możliwość ich ładowania minimalizując konieczność bezpośredniej ingerencji człowieka, a także eliminuje konieczność uruchamiania innych źródeł energii np. głośnych agregatów prądotwórczych, demaskujących obecność tych systemów. Problemem w zastosowaniu tych źródeł zasilania jest ich stosunkowo niski stopień kamuflażu w szczególności w zakresie widzialnym oraz podczerwieni, co obrazuje rysunek 3. Nie zapewniają one skutecznej ochrony, innymi słowy są one widoczne i demaskujące. Niewątpliwie obiecujące w tym zakresie staje się zastosowanie nowoczesnych, funkcjonalnych powłok elektrochromowych dla ogniw fotowoltaicznych. Rys. 1. Zastosowanie ogniw fotowoltaicznych w różnych militarnych aplikacjach [1... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Czasopisma NT, Indeksy, Cytowania, Bazy danych, Wydawnictwa Cyfrowe, Bibliometria. Część 1 DOI:10.15199/ELE-2014-091
(Ryszard S. Romaniuk)

Indeksy, cytowania, bibliometria, ocena parametryczna jednostek naukowych, ocena osobista dorobku uczonych są przedmiotem zainteresowania środowiska naukowego, choćby ze względu na powiązanie tych funkcji i parametrów z procesami legislacyjnymi dotyczącymi nauki w naszym kraju. Jesteśmy świadkami, a niektórzy z nas uczestnikami i autorami, intensywnych przemian w sposobie wydawania czasopism naukowo-technicznych (NT). Czasopisma NT podlegają szybkim zmianom, wraz z "internetyzacją" tj. cyfryzacją, informatyzacją, badań naukowych i powiązanych z badaniami i innowacjami, zaawansowanych procesów przemysłowych. Czasopisma te już obecnie nie liczą się praktycznie prawie zupełnie jako zbiory biblioteczne wydań papierowych (jedynie jako zbiory historyczne) a tylko i wyłącznie jako bazy danych o bardzo dobrej, tylko dobrej, lub nieco słabszej proweniencji. Historyczne wydania są coraz częściej w pełni digitalizowane i archiwizowane. Większość czołowych wydawnictw zarchiwizowało kolekcje swoich czasopism NT. Jakość bazy danych (według instytucji finansujących badania i administracji nauki) jest współmierna z wysokością indeksów oceniających czasopismo, i dalej z wysokością finansów i obłożeniem przez najlepszych autorów z najlepszych ośrodków naukowych, generujących najlepsze wyniki naukowe i techniczne. Czasopismom o charakterze lokalnym bardzo trudno jest uzyskać wysokie wskaźniki bibliometryczne. W kraju zrodziła się koncepcja powołania Polskiego Indeksu Czasopism Naukowych. Do takiej roli aspiruje prawdopodobnie Index Copernicus (IC Journal Master List), ale nie tylko, także inne. Powstaje duży portal krajowy zarządzania nauką Pol-ON, w ramach którego mogą być zapewne tworzone mechanizmy tworzenia ocen i indeksów instytucji, wydawnictw, czasopism i osób. Prowadzona jest intensywna dyskusja nad przyszłością wielu czasopism i sposobem ich wydawania. Artykuł jest niezbyt uporządkowanym i skromnym przyczynkiem do tej dyskusji. Tematy... więcej»

Charakteryzacja przyrządów kluczujących pod względem zastosowania w generatorach ultradźwiękowych dużej mocy DOI:10.15199/ELE-2014-049
(Krystian Król, Witold Kardyś, Łukasz Krzemiński, Marcin Kiełbasiński, Bohdan Młynarski )

Technologia ultradźwiękowa znajduje coraz większe zastosowanie w przemyśle przy zgrzewaniu tworzyw sztucznych i metali, czy też przy wykorzystaniu efektu kawitacji do czyszczenia detali przemysłowych oraz rozdrabniania półproduktów płynnych [1]. Wszystkie wymienione przemysłowe zastosowania technologii ultradźwiękowej wymagają zastosowania przetworników oraz układów drgających dużej mocy. W tego typu konstrukcjach wiele parametrów użytkowych zależy od paramentów generatorów sygnałów elektrycznych zasilających przetworniki ultradźwiękowe. Wraz ze wzrastającą mocą układów drgających zmieniają się również wymagania oraz konstrukcja stopni wyjściowych generatorów ultradźwiękowych zasilających przetworniki. Współcześnie moc dysponowana generatorów ultradźwiękowych pracujących z częstotliwością 18-20 kHz może dochodzić nawet do 4-6 kW [2]. Zwiększa to znacznie wymagania stawiane przyrządom półprzewodnikowym pracującym jako klucze w stopniach wyjściowych generatorów. Muszą się one charakteryzować wysokim dopuszczalnym prądem pracy, wysokim napięciem blokowania, a jednocześnie zapewnić optymalne warunki przełączania ze względu na stosunkowo wysokie częstotliwości pracy powodujące wzrost udziału strat komutacyjnych. W artykule analizie poddano właściwości dynamiczne półprzewodnikowych elementów kluczujących spełniających wymagania stawiane stopniom wyjściowym generatorów dużej mocy tzn. cechujących się prądami ciągłymi pracy na poziomie 20-30 A, napięciem blokowania większym niż 700 V. Warunki takie spełniają dwie konstrukcje przyrządów półprzewodnikowych - tranzystory IGBT wykonywane w technologii krzemowej oraz obecne od niedawna tranzystory MOSFET wykonywane w technologii węglika-krzemu. Analizie poddano właściwości dynamiczne tych rozwiązań. Konstrukcja wyjściowego układu falownika Ponieważ model zastępczy elektromechanicznego układu drgającego, pokazany na rys. 1, jest równoważny układowi rezonansowemu, musi być on pobudzany na... więcej»

Analiza elementarna siarki i węgla metodą absorpcji w podczerwieni DOI:10.15199/ELE-2014-085
(Krzysztof Jasek, Artur Witowski)

Analiza elementarna jest to technika analityczna stosowana w chemii do ustalania składu pierwiastkowego związków chemicznych i ich mieszanin. W ramach analizy elementarnej ustala się jakie i ile procent masowo pierwiastków chemicznych wchodzi w skład badanej substancji. Badania takie są bardzo istotne w wielu dziedzinach przemysłu, gdzie określa się skład surowców pochodzenia naturalnego, które podlegają procesom przetwórczym oraz w kontroli jakości otrzymanych produktów. W szczególności w przemyśle ciężkim (energetyka, hutnictwo, odlewnictwo, przemysł chemiczny) analizy takie wykonywane są standardowo w laboratoriach przemysłowych. W energetyce jednym z najważniejszych parametrów paliw stałych jest zawartość pierwiastkowego węgla, który określa energetyczność paliwa oraz siarki, której tlenki są głównymi czynnikami skażeń atmosfery [1]. W przemyśle odlewniczym analiza elementarna węgla wykorzystywana jest do określania zawartości węgla błyszczącego w materiałach dodawanych do mas bentonitowych [2-5]. Znajomość tego parametru umożliwia opracowanie mas formierskich o składzie zapewniającym żądaną gładkość powierzchni wykonywanych odlewów. Analiza elementarna węgla znajduje także zastosowanie w procesach wytwórczych alotropów węgla oraz w inżynierii materiałowej do badania składu chemicznego kompozytów/nanokompozytów węglowych [6-7]. Technika oparta o analizę elementarną węgla wykorzystywana może być także do badania reakcyjności koksu -niezwykle istotnego parametru koksu przeznaczonego do aplikacji wielkopiecowych [8]. Powszechnie stosowane metody chemiczne oznaczania siarki i węgla polegają na ilościowym spaleniu badanej próbki w strumieniu tlenu, a następnie miareczkowaniu wiązanego w roztworach wodnych dwutlenku siarki oraz oznaczaniu wagowym, absorbowanego na stałym absorbencie, dwutlenku węgla. Metody chemiczne są dokładne, wiarygodne i mało wrażliwe na zakłócenia, posiada ona jednak kilka istotnych wad. Są pracochłonne... więcej»

Selektywna katalityczna redukcja tlenków azotu jako sposób ograniczenia emisji zanieczyszczeń do środowiska DOI:10.15199/ELE-2014-083
(Artur WITOWSKI, Krzysztof JASEK)

Zanieczyszczenia gazowe, ze względu na swoją mobilność, stanowią najbardziej niebezpieczną grupę czynników degradujących środowisko naturalne. Wśród zanieczyszczeń gazowych najbardziej istotnymi, ze względu na wielkość emisji i zagrożenie dla środowiska, poza dwutlenkiem siarki, tlenkami węgla, lotnymi związkami organicznymi, pyłami, są tlenki azotu. Powodują one silną degradację środowiska - są odpowiedzialne między innymi za powstawanie kwaśnych deszczy oraz smogu [1, 2]. Spośród występujących w przyrodzie tlenków azotu (N20, NO, N2O3, NO2, N2O4, N2O5) w gazach poreakcyjnych emitowanych do do atmosfery dominuje tlenek azotu (NO) oraz ditlenek azotu (NO2). Dlatego też, w inżynierii ochrony środowiska, za kryterium wielkości emisji tlenków azotu do środowiska przyjęto sumę zawartości NO i NO2 (w przeliczeniu na NO2). Ta sumaryczna wielkość oznaczana jest w literaturze technicznej symbolem NOx. Emisja tlenków azotu w gazach wypuszczanych do środowiska podlega uregulowaniom prawnym poszczególnych państw oraz UE. W Polsce dopuszczalne wielkości emisji tlenków azotu, w zależności od mocy cieplnej źródła i stosowanego paliwa, określa Rozporządzenie Ministra Środowiska z dnia 2011 r. (Dz. U. 2011Nr 95 poz. 558) [3]. Zgodnie z jego treścią, obecnie dopuszczalne wielkości emisji tlenków azotu do atmosfery zostaną zaostrzone od 2016 r. Związane to jest z dostosowywaniem polskich uregulowań prawnych do Dyrektywy Unii Europejskiej 2010/75/UE [4]. W Polsce emisja tlenków azotu stanowi ok. 10% łącznej krajowej wielkości emitowanych zanieczyszczeń gazowych [5]. Głównymi źródłami emisji do atmosfery tlenków azotu są takie gałęzie polskiej gospodarki jak: przemysł energetyczny, chemiczny oraz transport. W ostatnich latach, jak wynika z danych Krajowego Ośrodka Bilansowania i Zarządzania Emisjami (KOBiZE), notuje się stopniowe zmniejszanie emisji do środowiska zanieczyszczeń tlenkami azotu [6]. Ilustruje to tabela 1. Tab. 1. Zestawienie dany... więcej»

Czujnik wodoru do zastosowań w podwyższonej temperaturze i wilgotności DOI:10.15199/ELE-2014-080
(Elżbieta Czerwosz, Anna Kamińska, Ewa Kowalska, Mirosław Kozłowski, Sławomir Krawczyk, Joanna Radomska, Halina Wronka)

Paliwa naturalne (ropa naftowa, węgiel i gaz ziemny) są wykorzystywane w świecie jako podstawowe źródła energii. W wyniku procesów spalania zanieczyszczają jednak środowisko. Zasoby paliw naturalnych są nieodnawialne i ograniczone. Surowcem, który mógłby zastąpić paliwa kopalne w przyszłości, jest wodór, który spala się do wody nie powodując zanieczyszczeń otoczenia. Zainteresowanie wodorem wynika z dwóch głównych przesłanek: 1) potrzeby zapewnienia bezpieczeństwa zapasów energetycznych oraz 2) potrzeby znalezienia ogólnodostępnych, tanich źródeł energii. Te przesłanki są impulsem do rozwoju gospodarki, a zwłaszcza energetyki i transportu, opartych na wodorze. Wodór jest stosowany w wielu dziedzinach nauki i przemysłu, między innymi w procesach uwodorniania (utwardzania tłuszczów), przekształceniach ropy naftowej, w chemicznej produkcji związków (np. amoniaku, chlorowodoru, metanolu), w technologiach materiałowych, metalurgii, podczas spawania (palniki tlenowo-wodorowe), w chłodzeniu kriogenicznym czy silnikach rakietowych (paliwo w mieszaninie z tlenem). Czujniki wodoru, jako przyrządy monitorujące, powinny charakteryzować się dużą czułością, krótkim czasem odpowiedzi i krótkim czasem regeneracji. Ponadto, powinny być stosunkowo tanie w produkcji i eksploatacji. Obecnie istnieje wiele typów czujników do detekcji wodoru np. powierzchniowe detektory fal akustycznych SAW [1] (ang. Surface Acoustic Wave), sensory typu MOS (ang. Metal-Oxide- Semiconductor) [2] oraz czujniki typu MOSFETs (ang. Metal-Oxide- Semiconductor Field Effect Transistors) [3]. Niektóre z tych czujników zawierają metale przejściowe (np. Ni, Pd, Pt lub ich stopy), ponieważ rozpuszczalność wodoru w tych metalach jest duża [4]. Adsorpcja wodoru na tych metalach zmienia ich właściwości fizyczne, elektryczne lub optyczne. Zmiany te mogą być podstawą do stwierdzenia obecności wodoru w otoczeniu. W zależności od zasady działania i budowy detektory wodoru wykazują ... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Synteza 128-bitowych komparatorów hierarchicznych w strukturach CPLD/FPGA DOI:10.15199/ELE-2014-042
(MAREK GRUSZEWSKI)

Komparator binarny (nazywany dalej komparatorem) należy do układów kombinacyjnych i służy do porównywania wartości dwóch słów binarnych, np. A i B. Komparator tradycyjny (rys. 1) ma trzy wyjścia i realizuje następujące funkcje: G (A > B), E (A = B), L (A < B), gdzie A = at ... a1 oraz B = bt ... b1.Komparatory należą do podstawowych komponentów systemów cyfrowych. Są kluczowymi elementami w szerokim zakresie zastosowań, tj.: w procesach obliczeniowych (grafika oraz przetwarzanie obrazów/sygnałów [1]), w układach testujących (analizatory sygnatur, wbudowane układy samotestujące [2]), w procesach poszukiwania i sortowania danych [3], jako komponenty w procesorach ogólnego przeznaczenia: pamięci asocjacyjne (skojarzeniowe), bufory TLB (Translation Lookaside Buffer), bufory BTB (Branh Target Buffer) i wiele innych bloków porównywania argumentów w CP U [4]. Rozbudowany układ cyfrowy na ogół przedstawiany jest jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych. Do takich bloków funkcjonalnych należą m.in. komparatory. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CP LD) oraz bezpośrednio programowalne macierze bramek (FPGA) [5]. W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przetwarzania i przesyłania informacji. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy komparatorów w strukturach CP LD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach. Przy syntezie komparatorów wystarczy zrealizować tylko dwie funkcje G i E. Funkcja L zawsze może być określona na podstawie dwóch pierwszych na podstawie zależności: (1) Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy. W ostatnich latach zwraca się dużą uwagę na projektowanie komp... więcej»

Relacyjna baza danych przechowująca dane z doświadczeń związanych z ochroną roślin - proces projektowania DOI:10.15199/ELE-2014-045
(Małgorzata Tartanus, Tadeusz Antczak )

We współczesnym świecie, zdominowanym przez olbrzymią ilość różnorodnych informacji, nie sposób sobie wyobrazić efektywnego funkcjonowania człowieka bez możliwości i udogodnień, jakie oferują bazy danych. Obecnie człowiek spotyka się na co dzień z tak dużą ilością i różnorodnością informacji, iż trudno byłoby mu je wszystkie zapamiętać, a w konsekwencji mógłby łatwo się pogubić w ich efektywnym wykorzystaniu dla swoich potrzeb. Praktycznie każdy rodzaj informacji, z jakim ma do czynienia człowiek w swoim środowisku, daje się przechowywać w bazach danych. Dlatego bazy danych stały się nieodzownym narzędziem w przechowywaniu informacji, a następnie ich przetwarzaniu, zgodnie z potrzebami współczesnych ludzi. Bazę danych można zdefiniować m.in. jako model pewnego wycinka świata rzeczywistego (niekoniecznie istniejącego fizycznie lub też takiego, który nigdy fizycznie nie istniał), który jest przedmiotem zainteresowania przyszłych użytkowników. Takim fragmentem rzeczywistości, który może być zamodelowany przy wykorzystaniu baz danych, jest rolnictwo, a dokładniej, jego poszczególne działy, w tym choćby badania i doświadczenia naukowe prowadzone w tym obszarze aktywności współczesnego człowieka. W literaturze można znaleźć przykłady aplikacji bazodanowych wspomagających producentów płodów rolnych w ich codziennej pracy [6, 4, 8], a także wyniki badań dotyczących różnych aspektów związanych z produkcją rolną [9], które dotyczą możliwości wykorzystania baz danych w tym obszarze badań naukowych. Systemy gromadzenia danych o sprzedaży i zużyciu środków ochrony roślin są podstawą krajowych strategii zrównoważonego stosowania środków ochrony roślin [5]. Aktualnie trudno wyobrazić sobie produkcję płodów rolnych bez stosowania środków ochrony roślin. Celem niniejszych rozważań jest przedstawienie relacyjnej bazy danych "Archiwum dokumentów", która usprawnia prowadzenie badań i doświadczeń naukowych związanych z ochroną roślin. Jej głó... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS DOI:10.15199/ELE-2014-036
(Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)

Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Zastosowanie pseudolosowych generatorów chaotycznych do transmisji danych wrażliwych z użyciem magistral szeregowych DOI:10.15199/ELE-2014-037
(PAWEŁ DĄBAL, RYSZARD PEŁKA)

Obecnie dużym zainteresowaniem cieszą się systemy telemetryczne umożliwiające integrację wielu rodzajów czujników oraz aktuatorów (urządzeń wykonawczych). Rozbudowa systemu pociąga za sobą konieczność użycia niezawodnych sposobów komunikacji pomiędzy elementami systemu. Podzielić możemy je na dwie zasadnicze grupy: przewodowe (np. I2C, SPI , CAN) oraz bezprzewodowe (np. ZigBee, Wi-Fi). W przypadku transmisji bezprzewodowych niemal standardem jest stosowanie mechanizmów mających zapewnić poufność i autentyczność przesyłanej informacji. Transmisja przewodowa z racji ograniczonego dostępu do medium transmisyjnego do tej pory nie przyciągała uwagi badaczy. W przypadku kiedy przesyłane dane są wrażliwe, ważnym aspektem staje się zapewnienie możliwości zabezpieczenia ich z użyciem znanych technik kryptograficznych. Ma to szczególne znaczenie w przypadku aplikacji mających zapewnić bezpieczeństwo człowiekowi posługujących się nimi np.: aparaturą medyczną, w motoryzacji (ABS, ESP, ACC ) i kontroli procesów produkcyjnych [1, 2]. Niekiedy kiedy jeden z komponentów systemu (np. czujnik biomedyczny) może być zastąpiony komponentem nie spełniającym specyficznych wymagań systemu (np. precyzji, rozdzielczości, obsługi procedur diagnostycznych, itp.). Innym rodzajem zagrożenia jest narażenie na modyfikację lub całkowite uniemożliwienie komunikacji oraz wywołanie niestabilności systemu lub jego całkowitej awarii. Zastosowanie szyfrowania i uwierzytelnienia zapewnia podwyższenie bezpieczeństwa i ułatwia szybsze wykrywanie ataku na magistralę. W celu zapewnienia poufności danych można zastosować powszechnie znane algorytmy kryptograficzne z symetrycznym kluczem (np. DES, AES). Za integralność danych odpowiadają funkcje skrótów (np. SHA), natomiast za uwierzytelnienie algorytmy z kluczem publicznym (np. RSA). Implementacja ich w urządzeniach mających komunikować się za pośrednictwem prostych magistral szeregowych najczęściej odbywa się progr... więcej»

Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych DOI:10.15199/ELE-2014-039
(Tomasz Kraszewski)

Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Zatrzaskiwanie się pasożytniczego tyrystora i szybkie zatrzaskiwanie się pasożytniczego tyrystora DOI:10.15199/ELE-2014-030
(Bartłomiej Półtorak, Jacek Szatkowski )

W komercyjnie dostępnych układach scalonym (np. wzmacniaczu operacyjnym, mikroprocesorze) znajduje się więcej tranzystorów i diod niż niezbędna ilość do wykonywania podstawowych funkcji danego urządzenia. Te dodatkowe elementy półprzewodnikowe (np. diody poziomujące) na wejściu i wyjściu układu scalonego są niezbędne do zapewnienia prawidłowego działania układu scalonego w żądanych warunkach. Diody poziomujące zabezpieczają przed przepięciami jak i zniekształceniami sygnałów. Używane są również inne bardziej złożone elementy półprzewodnikowe, które zabezpieczają przed uszkodzeniem układów scalonych przez wyładowaniami elektrostatycznymi. Pochodzenie takich impulsów może mieć różne źródła. Aby ułatwić charakteryzację poszczególnych źródeł zagrożenia wyróżniono trzy podstawowe modele: - model ciała ludzkiego- Kondensator o pojemności 100 pF jest ładowany do wysokiego napięcia (od 200 V do 8 kV) a następnie jest rozładowywany przez rezystor 1,5 k&#937; i obciążany element. Na rys. 1 jest przedstawiony schemat modelu ciała ludzkiego i kształt impulsu, jaki generuje dany model. Długość impulsu osiąga wartość kilku dziesiątych mikrosekundy a wysokość impulsu prądowego nie - model naładowanego urządzenia- polega na zastąpieniu naładowanego elementu scalonego układem zbudowanym z kondensatora (1-20 pF) rozładowywanego przez rezystor o pojemności 1 &#937;. Uzyskiwane tą metodą impulsy mają czas trwania około 2ns i wysokość większą niż 2 A. Na rysunku trzecim (rys. 3) został przedstawiony model naładowanego urządzenia. Rys. 1. a) model ciała ludzkiego rozładowywany poprzez rezystor 1,5 ... więcej»

Wykorzystanie Połączeń Szerokopasmowych w Celach Utrzymania Stałego Rozwoju (Dr Hamadoun I. Touré)
Światowy Dzień Telekomunikacji i Społeczeństwa Informacyjnego 2014 jest obchodzony w 149 rocznicą ustanowienia Międzynarodowego Związku Telekomunikacyjnego w 1865 roku. Bogata historia Międzynarodowego Związku Telekomunikacyjnego przedstawia jego istotną rolę we wdrażaniu najbardziej zaawansowanych i innowacyjnych środków komunikacji na świecie, od czasów wynalezienia telegrafu aż do pojawienia się Internetu i systemu połączenia szerokopa smowego, które umożliwiają kontakt z przyjaciółmi i rodziną w każdej chwili. Prawo do komunikowania się jes... więcej»

Wpływ obecności farm wiatrowych na działanie radaru pasywnego DOI:10.15199/ELE-2014-023
(Janusz S. Kulpa, Marcin K. Bączyk, Krzysztof Kulpa)

W ostatnich latach można zaobserwować duży wzrost liczby turbin wiatrowych w Polsce [14]. Spowodowane jest to w dużej mierze presją Unii Europejskiej na rozwój odnawialnych źródeł energii. Należy jednak mieć na uwadze, iż budowa farm wiatrowych może niekorzystnie wpłynąć na skuteczność systemów radiolokacyjnych, zarówno aktywnych jak i pasywnych. Turbina wiatrowa jest obiektem w skład którego wchodzą silnie odbijające części o szerokim spektrum prędkości. W minionych latach powstało wiele analiz skupiających się na oddziaływaniu farm wiatrowych na radary [2, 9, 10]. Głównie dotyczą one monostatycznych radarów aktywnych. Powstały też algorytmy, które pozwalają na usunięcie lub ograniczenie szkodliwych efektów wywoływanych przez obecność farmy wiatrowej w obszarze pracy radaru [11], [13]. Literatura obejmująca analizy wpływu parków wiatrowych na radary multistatyczne, w tym na radary pasywne, jest uboga. Większość sposobów używanych w radarach aktywnych nie może być bezpośrednio zastosowana w radiolokacji pasywnej. Radar pasywny PCL (ang. Passive Coherent Location) to radar, który nie emituje własnych fal elektromagnetycznych - wykorzystuje sygnały już obecne w przestrzeni, takie jak radio FM, naziemna telewizja cyfrowa DVB-T, stacje sieci komórkowych GSM, bądź internetu bezprzewodowego [1, 5, 7, 8]. Radar taki rejestruje sygnał z nadajnika, tzw. sygnał referencyjny xref , oraz sygnał obserwacyjny xs zawierający odbite od występujących w obserwowanej scenie obiektów kopie sygnału nadawanego. Detekcja następuje wskutek korelacji sygnału odebranego z obserwowanej sceny z sygnałem referencyjnym za pomocą dwuwymiarowej funkcji niejednoznaczności [3]: (1) gdzie &#964; jest przesunięciem czasowym, fd częstotliwościowym sygnału xref, a* jest operatorem zespolonego sprzężenia. Maksima funkcji niejednoznaczności odpowiadają przesunięciom czasowym i częstotliwościowym obserwowanych obiektów, czyli określają ich odległość i prędkość bi... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Demonstrator radaru szumowego z interferometrycznym pomiarem kierunku DOI:10.15199/ELE-2014-024
(Paweł Roszkowski, Mateusz Malanowski)

Radary szumowe (ang. noise radars) są to radary wykorzystujące sygnał szumowy, losowy lub chaotyczny do oświetlania obserwowanych obiektów oraz przetwarzanie korelacyjne powracającego echa dla optymalnej filtracji i detekcji sygnału radiolokacyjnego. Zainteresowanie takiego typu radarami występuje głównie w aplikacjach militarnych ze względu na ich niskie prawdopodobieństwo przechwycenia LPI (ang. Low-Probability-of-Interception), dobrą kompatybilność elektromagnetyczną - EMC (ang. ElectroMagnetic Compatibility) oraz możliwości utajonego operowania na nieprzyjaznym terenie - tzw. koncepcja Stealth Radar. Radar szumowy posiada bardzo dobre możliwości detekcyjne obiektów z uwagi na brak niejednoznaczności pomiaru odległości ani prędkości bistatycznych obiektów, zachowując wysoką rozróżnialność i dokładność pomiaru. W artykule przedstawiono radar szumowy z falą ciągłą (istnieją także radary szumowe impulsowe), w którym zastosowano oddzielne anteny dla nadawania i odbioru, dzięki czemu nie jest potrzebna skomplikowana aparatura do przełączania nadawanie/odbiór. Gdy odseparujemy o pewną odległość antenę nadawczą i odbiorczą powstaje konfiguracja radaru bistatycznego (w odróżnieniu od konfiguracji monostatycznej w której anteny odbiorca i nadawcza znajdują się w tym samym miejscu). Przykładową geometrię bistatyczną w przygotowanym scenariuszu testowym przedstawia rys. 1. Radar w konfiguracji bistatycznej posiada wiele korzyści wynikających z geometrii, które stwarzają potencjalne możliwości detekcji obiektów typu stealth [3]. Związane jest to ze zwiększaniem się prawdopodobieństwo ustawienia się wybranych elementów obiektu prostopadle do siecznej kąta pomiędzy kierunkiem padania fali oświetlającej i kierunkiem na odbiornik radaru. Wykorzystanie geometrii bistatycznej ogranicza również kontrolę charakterystyki odbicia obiektu poprzez kształtowanie powierzchni i planowanie misji, tak by stać się niewidzialnym dla radaru aktywnego... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Realization of Digital Audio Signal Interpolator Using Linear-Phase IIR Filter DOI:10.15199/ELE-2014-011
(Krzysztof Piotr Sozański)

In a digital class D power amplifier, depicted in Fig. 1, the output pulse power amplifier works as a one-bit D/A converter. We assume that the amplifier input signal is in the CD player standard, i.e., is sampled with rate fs = 44.1 ksamples/s. Thus, its approximate frequency band covers 0...fb = 0...20 kHz. In order to increase the resolution of the amplifier, noise shaping and oversampling techniques are used [9]. The chosen signal oversampling ratio R = 8 is a compromise between the power MOSFET switching losses (for the minimization of which R should be also minimized) and the selectivity of the output passive low-pass smoothing filter. The chosen switching frequency is R &#8901; fs=352.8 kHz. During the signal interpolation process, the signal dynamic ratio can be decreased by adding mirror signals to the input signal. For high quality audio signals the required dynamic range is near 90 dB. The aim of this paper is to present a new audio signal interpolator using LF IIR filter. The interpolator is designed for Class-D audio power amplifier. Signal Interpolator A signal interpolator made up of an upsampler and an anti-imaging low-pass filter for integer valued conversion factor R is depicted in Fig. 2. The low-pass filter H(e j&#969;Ts/R), also called the interpolation filter, removes the R-1 unwanted images in the spectra of upsampled signal w(kTs/R). Fig. 1. Block diagram of class D digital audio power amplifier Rys. 1. Schemat blokowy wzmacniacza mocy klasy D Fig. 2. Signal interpolator Rys. 2. Interpolator sygnałów DPWM Noise Shaping Circuit Signal Interpolator x(nTs) fs=44.1 kHz +UZ L1 L2 C1 C2 C3 ZL Gate Drivers 8fs=352.8 kHz fc=352.8 kHz H(ejTs/R) x(nTs) x R y(kTs/R) fs Rfs R w(kTs/R) h(kTs/R) El ektronika 4/2014 47 An illustration of interpolating process for R = 3 is depicted in Fig. 3. After the upsampling process, the out-of-band signal (unwanted images) is a source of interference ... więcej»

Analiza technik biometrycznych do uwierzytelniania osób DOI:10.15199/ELE-2014-015
(Mirosława Plucińska, Jarosław Wójtowicz)

Elektronizacja administracji (e-administracja), upowszechnienie transakcji i usług internetowych (e-usługi) wymagają jednoznacznej weryfikacji osoby korzystającej z tych udogodnień. Wydaje się, że takie jednoznaczne potwierdzenie tożsamości osoby może zapewnić biometria. W związku z tym należy rozpatrzyć dostępne techniki biometryczne, przyjrzeć się im i wybrać te, które będą najbardziej przydatne do uwierzytelniania. Ogólny przegląd technik biometrycznych istniejących i rozwijanych obecnie na rynku z krótkim opisem metody działania i najważniejszymi wadami i zaletami został umieszczony w artykule pt.: "Krótki przegląd technik biometrycznych do rozpoznawania osób" autorstwa M. Plucińskiej i w związku z tym w obecnym artykule nie będzie przypomnienia technik jakie są obecnie na rynku, a jedynie ich porównanie. Najważniejsze cechy technik biometrycznych Analizę i porównywanie technik biometrycznych można przeprowadzić w różnych aspektach. Do najważniejszych cech charakteryzujących poszczególne techniki biometryczne opisanych parametrami urządzeń biometrycznych należą - wiarygodność techniki, akceptowalność społeczna i łatwość użycia, przepustowość określona czasem weryfikacji, wielkość wzorca, wielkość urządzenia, cena i inne. Akceptowalność społeczna Jedną z ważnych cech dotyczących technik biometrycznych jest akceptowalność społeczna biometrii. Strach przed przyłożeniem palca czy oka do urządzenia skanującego oraz obawa przed zostawianiem swoich danych biometrycznych są ciągle duże, ale ogólne podejście społeczeństwa do biometrii zmienia się. Z danych przytoczonych na Konferencji Naukowej Biometria 2010 (organizator Instytut Maszyn Matematycznych, Warszawa) w prezentacji prof. A. Koziczak z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy, aż 77% ankietowanych studentów Wydziału Prawa i Administracji w wieku od 22 do 30 lat było za stosowaniem cech biometrycznych do szybkiego sprawdzenia tożsamości. Ankietowani godzili się na ... więcej»

Detekcja aktywności istot żywych ukrytych za ścianą DOI:10.15199/ELE-2014-014
(Waldemar SUSEK, Bronisław STEC, Mirosław CZYŻEWSKI, Czesław REĆKO, Adam SŁOWIK)

Współczesne warunki stawiają wysokie wymagania systemom radioelektronicznym. Pojawia się całe spektrum zastosowań, zarówno w ramach systemów wojskowych i specjalnych, jak i całkowicie cywilnych, komercyjnych. Zagrożenia terrorystyczne i inne podobnego typu sytuacje kryzysowe stwarzają zapotrzebowanie na systemy wykrywania i przeciwdziałania różnorodnym zagrożeniom terrorystycznym, lub innym, stwarzającym zagrożenie dla osób lub instytucji państwowych. Często też systemy takie wspierają działania służb ratowniczych, poszukiwawczych, lub też służą celom ściśle komercyjnym. Do niedawna radary szumowe, ze względu na niestabilność źródeł sygnału oraz konieczność stosowania specyficznych rozwiązań przy ich konstrukcji, nie były zbyt powszechne. Ostatnio, ze względu na specyficzne cechy, obserwuje się coraz większą liczbę aplikacji z ich wykorzystaniem, zarówno specjalnych, jak i komercyjnych. Cechy sygnałów szumowych są znane od kilkudziesięciu lat, jednak problem z ich generacją i zapewnienia stabilności parametrów sygnału nastręczał wiele problemów. Również odbiór tego typu sygnałów i związana z nim specyfika przetwarzania, powodowały, że konstrukcje miały charakter eksperymentalny [2-4]. Zadaniem lokalizatora jest wykrycie osób, przebywających za przesłonami niemetalowymi, w praktyce są to najczęściej: drewniana lub murowana ściana, okno, drzwi, lub inne podobne przesłony. Ściana murowana lub inna, wzmocniona prętami metalowymi, może być przejrzysta dla fal radiowych, jeżeli użebrowanie jest niezbyt gęste. Ścisłe określenie tego problemu wymaga niezależnych badań. Drugim istotnym problemem przy pracy takiego radaru jest odróżnienie obiektów stałych, takich jak: krzesło, biurko, szafa lub inne przedmioty od odbicia i wyróżnienia, jakie dają istoty żywe, w tym także człowiek. Spełnienie powyższych wymagań można uzyskać stosując do wyróżniania obiektów odbiornik korelacyjny, współpracujący z sygnałem szumowym [5]. Budowa lokalizat... więcej»

Metoda wyznaczania parametrów składowych wielotonów wybranych idiofonów DOI:10.15199/ELE-2014-009
(Andrzej Meyer, Marek Portalski)

Idiofony to grupa instrumentów muzycznych, w których źródłem dźwięku (wibratorem) jest ciało stałe mające niezmienną, naturalną sprężystość. Tym źródłem jest najczęściej cały instrument. Idiofony mogą wydawać dźwięki o charakterze szumowym lub o określonych częstotliwościach - wielotony. Zależy to od właściwości fizycznych elementu drgającego. Większość idiofonów to instrumenty perkusyjne. Należą do nich np. wibrafon, dzwony, gongi czy stosowane w terapii misy dźwiękowe [2]. Analiza dźwięków takich instrumentów jest zagadnieniem trudnym ze względu na ich wybitnie niestacjonarny charakter. Dlatego też wykorzystanie typowego spektrogramu nie daje tu zadawalających wyników. Autorzy skoncentrowali się w swoich badaniach na wybranej grupie idiofonów wydającej dźwięki będące wielotonami, na ogół wielotonami nieharmonicznymi. Wynikła stąd potrzeba napisania specjalistycznego programu pozwalającego na wyznaczenie najważniejszych parametrów takich dźwięków. Wielotony i ich parametry Wielotony to sygnały będące sumą składowych sinusoidalnych. W przypadku całkowitych krotności częstotliwości podstawowej mamy wielotony harmoniczne, czyli sygnały odkształcone posiadające okres pierwszej harmonicznej. W przypadku niecałkowitych zależności pomiędzy częstotliwościami składowych powstają wielotony nieharmoniczne, w których mogą powstawać dudnienia, a okres sygnału zależny od najmniejszej wspólnej wielokrotności częs... więcej»

Porównanie elektrycznych właściwości mikroczujników impedancyjnych wykonanych na podłożach krzemowych i szklanych DOI:10.15199/ELE-2014-012
(Konrad Chabowski, Tomasz Piasecki, Karol Nitsch, Teodor Gotszalk, Andrzej Sierakowski, Piotr Grabiec )

Technologie mikroelektroniczne dają możliwość wykonywania miniaturowych czujników, przyrządów półprzewodnikowych, układów scalonych oraz systemów mikro- i nanoelekromechanicznych. Systemy te, ze względu na bardzo duży stopień integracji, wymagają łączenia ze sobą różnych materiałów i struktur. Jako przykład można wymienić mikrosystemy przepływowe z wbudowanymi czujnikami impedancyjnymi, znajdujące zastosowanie w genomice, proteomice i badaniach komórek [1-3]. Konstruowano również biokompatybilne mikrosystemy przewidziane do zastosowań In vivo w ludzkim organizmie, służące np. do programowanego dozowania leków wraz z monitoringiem jego uwalniania [4] oraz wczesnego wykrywania niedokrwienia serca podczas operacji kardiochirurgicznych [5]. Prostszymi konstrukcjami mikroelektronicznymi są pojedyncze czujniki impedancyjne na jednolitym podłożu z utlenionego krzemu lub szkła, wykorzystywane m.in. do monitorowania wzrostu biofilmu bakteryjnego [6-8] lub, po biochemicznej funkcjonalizacji powierzchni podłoża, służące jako biosensory, które selektywnie detekują obecność analitu w próbce [9, 10]. Innym rodzajem czujników wykonanych w technologii krzemowej są czujniki mikromechaniczne wykonane na mikrodźwigniach krzemowych [11]. Struktury czujników impedancyjnych mogą być wykonane na podłożach dielektrycznych (szkło, polimer) [1-3, 8, 10] bądź na półprzewodniku pokrytym cienką warstwą dielektryka [4, 6, 7]. To drugie rozwiązanie jest interesujące ze względu na to, że daje ono możliwość integracji w jednej strukturze czujnika z układami elektronicznymi niezbędnymi do wykonania pomiaru. Badania prezentowane w artykule dotyczą porównania właściwości czujników impedancyjnych z elektrodami palczastymi o takiej samej geometrii, wykonanych na różnych podłożach: szkle, utlenionym krzemie oraz utlenionym krzemie z elektrodą ochronną. Porównywano zmierzone widma impedancyjne czujników umieszczonych w powietrzu, wodzie destylowanej oraz fizjologi... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Kształtowanie szumu w fonicznych przetwornikach a/c i c/a sigma-delta (MARCIN LEWANDOWSKI, ZBIGNIEW KULKA)
Szczególnie istotną rolę w systemach zapisu i odtwarzania dźwięku, określanych jako systemy hi-fi (high-fidelity), odgrywają wielobitowe (16-24-bitowe) przetworniki analogowo-cyfrowe (a/c) i cyfrowo-analogowe (c/a), pracujące z częstotliwościami próbkowania do 96/192 kHz, tworzące odrębną klasę przetworników fonicznych (audio converters) [1]. Przetworniki a/c i c/a działające z wykorzystaniem modulacji impulsowo-kodowej (PCM - pulse-code modulation), zwane powszechnie konwencjonalnymi przetwornikami PCM są stosowane w cyfrowej technice fonicznej od początku jej rozwoju. Przetwarzanie analogowego sygnału fonicznego na sygnał cyfrowy metodą kodowania PCM polega na wykonaniu trzech zasadniczych operacji: próbkowania równomiernego (ze stałym okresem próbkowania), wielobitowego kwantowania liniowego (ze stałym krokiem kwantowania) i kodowania. Wynikiem przetwarzania jest cyfrowy sygnał foniczny w formacie PCM, charakteryzowany przez częstotliwość próbkowania fS i rozdzielczość słów wyjściowych N w bitach. Przetworniki PCM mogą pracować z częstotliwością próbkowania (szybkością) Nyquist&#8217;a fN (Nyquist-rate PCM converters), tj. fS &#8805; fN = 2&#183;fm, gdzie fm jest pasmem analogowego sygnału wejściowego. Częściej jednak pracują z nadpróbkowaniem (oversampled PCM converters) i wówczas częstotliwość próbkowania fS = L&#183;fN, gdzie L jest współczynnikiem nadpróbkowania (oversampling ratio) równym fS /(2&#183;fm ), którego wartości mogą wynosić 2, 4, 8 lub 16. Choć nadpróbkowanie umożliwia zwiększenie stosunku sygnału do szumu SNR (signal-to-noise ratio) oraz uproszczenie konstrukcji analogowych filtrów dolnoprzepustowych (FDP) na wejściu przetwornika a/c (ochronnego, antyaliasingowego) i wyjściu przetwornika c/a (rekonstruującego, antylustrzanego), to jednak pociąga za sobą konieczność użycia cyfrowego filtru decymacyjnego na wyjściu przetwornika a/c i cyfrowego filtru interpolacyjnego na wejściu przetwornika c/a. Foniczne p... więcej»

Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Analiza wymagań pamięciowych dla podstawowej jednostki obliczeniowej w sprzętowej implementacji algorytmu dopasowania stereo typu "semiglobal" (Mikołaj Roszkowski, Grzegorz Pastuszak)
Algorytm dopasowania stereo działa na dwóch zrektyfikowanych obrazach przedstawiających jedną scenę. Rektyfikacja oznacza, że jeśli weźmie się pewien piksel na pierwszym obrazie, to odpowiadający mu piksel na drugim obrazie leży dokładnie w tej samej linii poziomej (o tej samej współrzędnej y). Bezwzględna wartość różnicy współrzędnych x odpowiadających sobie pikseli nazywana jest dysparycją i można wykazać że jest ona odwrotnie proporcjonalna do głębokości obiektu w scenie [1]. Celem algorytmu stereowizji jest przypisanie wartości dysparycji do każdego piksela i stworzenie tzw. mapy dysparycji. W literaturze znanych jest wiele algorytmów stereowizji. Generalnie można je podzielić na dwie grupy [2]: algorytmy decydujące jaka dysparycja powinna zostać przypisana do piksela tylko na podstawie jego najbliższego otoczenia (algorytmy lokalne), bądź na podstawie pewnej funkcji zdefiniowanej na całym obrazie (algorytmy globalne). Do pierwszej grupy należą np. algorytmy bazujące na dopasowaniu okna wokół piksela w jednym obrazie do pewnego okna w drugim obrazie za pomocą miar takich jak m.in. SAD [2], CENSUS [3]. Algorytmy te ze względu na swoją prostotę doczekały się wielu realizacji w układach FPGA. Ich implementacje są zazwyczaj szybkie, np. w [4] zaprezentowano system będący w stanie przetwarzać w sekundzie 230 ramek o rozdzielczości 640x480 i 64 poziomach dysparycji. Wadą algorytmów z tej grupy jest jednak zwykle gorsza jakość uzyskanej mapy dysparycji niż w przypadku algorytmów globalnych. W przypadku algorytmów globalnych najpopularniejsze bazują na "propagacji wierzeń" (belief-propagation) [5], bądź algorytmach" graph-cuts" [6]. Są to algorytmy bardzo wymagające pod względem obliczeniowym i przez to rzadko implementowane w sprzęcie. Istnieje jednak grupa algorytmów znajdująca się pomiędzy algorytmami globalnymi i lokalnymi. Są one oparte o programowanie dynamiczne na pewnym podzbiorze całego obrazu. Algorytmem z tej grupy da... więcej»

Uproszczona metoda obliczania warunków pracy tranzystorów w rezonansowych wzmacniaczach mocy klasy DE (Juliusz Modzelewski)
Kluczowane rezonansowe wzmacniacze mocy w radiotechnice mogą pełnić rolę stopni mocy nadajników systemów radiowych z modulacją częstotliwości (FM) i fazy (PM) oraz modulatorów mocy w nadajnikach z modulacją amplitudy (AM). Obecnie modulatory amplitudy o dużej mocy są także stosowane w wysokosprawnych liniowych wzmacniaczach mocy pracujących w układzie EE R (Envelope Elimination and Restoration) wykorzystywanych w nadajnikach systemów cyfrowych. Natomiast w energoelektronice wzmacniacze kluczowane pełnią funkcję przetworników energii źródła prądu stałego w energię wielkiej częstotliwości, dlatego zamiast określenia wzmacniacz często używane jest określenie inwerter (np. [1, 2] albo falownik (np. [3, 4]. Ideę kluczowanego wzmacniacza rezonansowego klasy DE przedstawiono w 1975 roku (Żukow, Kozyriew [5]). W wzmacniaczu tym zostały wyeliminowane podstawowe wady rezonansowego wzmacniacza mocy klasy D [6, 7]. Powstawanie prądu skrośnego wskutek pokrywania się impulsów bramkowych usunięto poprzez zwężenie tych impulsów tak, aby w cyklu pracy wzmacniacza pojawił się czas martwy, w którym oba tranzystory mocy są wyłączone (rys. 1). Modyfikację taką można zrealizować m. in. poprzez sterowanie tranzystorów przebiegiem sinusoidalnym [6, 7]. Natomiast straty mocy wywołane włączaniem tranzystorów "pod napięciem" (non-Zero-Voltage Switching) i aktywnym ładowaniem i rozładowywaniem pojemności wyjściowych tranzystorów zostały wyeliminowane poprzez zastosowanie odstrojonego obwodu rezonansowego o charakterze indukcyjnym. Dzięki temu w czasie martwym pojemności te są przeładowywane bezstratnie prądem wyjściowego obwodu rezonansowego. Takie bierne przeładowywanie pojemności wyjściowych redukuje także szybkość narastania napięcia na tranzystorze wyłączonym, co ogranicza groźbę jego pasożytniczego włączenia (i w efekcie powstania prądu skrośnego). Wzmacniacz taki nazywany był początkowo wzmacniaczem klasy D ... więcej»

Możliwości realizacji usług telekomunikacyjnych w morskim systemie INMARSAT Fleet77 (Jerzy Czajkowski )
Morski system INMARSAT Fleet77 jest przeznaczony do w pełni zintegrowanego satelitarnego systemu radiokomunikacyjnego umożliwiającego korzystanie w żegludze morskiej z najnowocześniejszych zdobyczy technik informacyjnych, w tym transmi-sji danych i poczty elektronicznej. Zapewnia przy tym realizację łączności dla alarmowania i potrzeb bezpieczeństwa statków oraz żeglugi. W [5] autor przedstawił ogólną strukturę systemu INMARSAT Fleet77, natomiast w niniejszym artykule scharakteryzowano możliwości realizacji usług telekomunikacyjnych w tym systemie. Celowym jest jednak odniesienie do artykułu autora w Elektronice 11/2012 [4] gdzie omawiając rozwój bardzo ważnego dla systemu GMDSS - systemu INMARSAT opisano rozwój członu satelitarnego tworząc satelity czwartej generacji. Otóż satelity te umożliwiają pracę z szerokimi wiązkami regionalnymi (wide beam) oraz wąskimi wiązkami punktowymi (spot beam). Usytuowanie trzech satelitów na orbicie geostacjonarnej umożliwia następujące pokrycie kuli ziemskiej:Rejony pokrycia satelitarnego I-4 - Americas - pokrycie Oceanu Wielkiego i Atlantyku - 098°W; I-4 - EMEA - (Europe, Middle East, Africa) - pokrycie Oceanu Atlantyckiego i Indyjskiego - 025°E; I-4 - Asia-Pacific - pokrycie Oceanu Indyjskiego i Wielkiego - 143,5°E. Na rysunku 1 przedstawiono pokrycie radiowe wiązkami punktowymi satelitów INMARSAT I-4, a na rys. 2 satelitę czwartej generacji. W tabeli przedstawiono dane techniczno-operacyjne satelitów I-4. Każdy satelita I-4 może generować 19 szerokich wiązek regionalnych oraz 254 wąskie wiązki punktowe. Wiązki te mogą być szeroko rekonfigurowane i mogą koncentrować się w dowolnym miejscu na Ziemi tak, aby zapewnić dodatkową przepustowość tam, gdzie jest to wymagane. Satelita I-4 w porównaniu ze swoim poprzednikiem I-3 dysponuje 60-krotnie większą pojemnością dzięki antenom Rys. 1. Pokrycie wiązkami punktowymi satelitów INMARSAT-4 Rys. 2. Satelita czwartej generacji I-4 systemu IN... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 &#937;. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow&#8209;tie w szczelinowo pobudzany monopol. Z... więcej»

Investigation of the reflective properties of layered antiferromagnetic-dielectric structures (Anton ARKHIPOV, Vladimir GNATUSHENKO)
The terahertz radiation is an interesting, important, and actively investigated frequency region. Development of this range is limited by a lot of reasons and one of them is a deficiency in a component base [1]. Non-reciprocity based on the non-Faraday effects is presented in this work. There are various ways to obtain nonreciprocal properties for anisotropic layered structures. One way is to use a well-known Faraday rotation effect, such as in optical isolators described in [2]. The handedness of this rotation depends on the propagation direction. In the terahertz region Faraday rotation in the ferrofluid at the room temperature was described in the work [3]. The electrically tunable Faraday effect in HgTe thin film is presented in [4]. Electrical control of the room-temperature Faraday effect was described there. High speed amplitude and phase modulators based on such structures were proposed in that paper. Near-infrared Faraday rotation in antiferromagnetic was described for example in paper [5] where laser pulse translation and signal transients in FeBO3 were observed as functions of sample temperature. Next way to obtain nonreciprocal properties is using nonlinear materials in heterostructures. For example in [6] the heterostructures based on the piezoelectric and semiconductor layers was proposed for radio-frequency application. Surface acoustic wave isolator based on two physical phenomena - strongly nonlinear interaction and drifting electron system was proposed here. Another examples of nonreciprocal properties of nonlinear devises in terahertz region was presented in paper [7] where a Faraday isolator operating on the coupled microwave resonators circuit. Another way is to use nature non-reciprocity of anisotropic materials. These properties are widely investigated and described later. For example non-reciprocity reflection in semi-infinitive layered magnetic-dielectric structures is described in [8]. Properties asso... więcej»

Nieinwazyjna metoda oznaczania glukozy w badaniach cukrzycy (Dagmara Kwapińska, Artur Rydosz, Wojciech Maziarz, Tadeusz Pisarkiewicz, Konstanty W. Marszałek, Beata Olszańska-Piątek)
Cukrzyca w Polsce i na świecie Na całym świecie blisko 347 milionów ludzi żyje ze zdiagnozowaną cukrzycą. W 2004 roku z powodu powikłań wywołanych przez cukrzycę zmarło ok. 3,4 miliona ludzi. Według przewidywań Światowej Organizacji Zdrowia (ang. World Health Organization) w 2030 roku cukrzyca będzie na siódmym miejscu w rankingu chorób bezpośrednio wywołujących śmierć [1]. Szacunkowa liczba osób chorych na cukrzycę w Polsce oscyluje wokół 3 milinów, a liczba osób niezdiagnozowanych szacowana jest na ok. 750 tys. [2]. Powikłania wywoływane przez nieleczoną cukrzycę to: powikłania sercowe (75%), udary mózgu (14%), choroby nerek (8%), choroby oczu (1%) [3]. Cukrzyca jest chorobą metaboliczną związaną z metabolizmem cukrów. Spowodowana jest brakiem bądź niedostateczną ilością insuliny. Generalnie rozróżniamy dwa typy cukrzycy: typ 1 i typ 2. Znany jest jeszcze typ 1.5 oraz cukrzyca ciążowa [4]. Typ 1 (cukrzyca insulinozależna) stanowi ok. 10% wszystkich przypadków zachorowań na świecie. Charakteryzuje się bezwzględną koniecznością przyjmowania insuliny [5]. Symptomy cukrzycy typu 1 to m.in. wzmożone pragnienie, bardzo częste oddawanie moczu, szybkie chudnięcie osoby, która nie jest na diecie, senność, brak apetytu, suchość skóry [6]. Cukrzyca typu 2 (insulinoniezależna) stanowi zdecydowaną większość wszystkich zachorowań na cukrzycę. Dotyka ona ludzi w każdym wieku i określana jest jako choroba cywilizacyjna [1]. W przeciwieństwie do cukrzycy typu 1 nie jest związana z całkowitym brakiem insuliny w organizmie a jedynie z jej niedoborem (ograniczonym produkowaniem insuliny przez trzustkę). W przypadku cukrzycy typu 2 początkowe objawy nie są tak jednoznaczne i często bywają ignorowane. Szacuje się, że blisko 30% ze wszystkich cukrzyków w Polsce żyje jako osoby niezdiagnozowane. Objawy takie jak: suchość skóry, senność, zaburzenie widzenia, zaburzenia erekcji są bardzo często ignorowane. Badania cukru, które wykonuje się metodam... więcej»

Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros&#8201;)
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Ocena efektywności dopasowania technologicznego dla struktur FPGA (Marcin KUBICA, Dariusz KANIA, Adam OPARA)
Jednym z kluczowych problemów w rozwoju techniki cyfrowej jest problem ciągłego tworzenia nowych narzędzi syntezy. Niestety dostępne obecnie narzędzia syntezy są dalekie od doskonałości. Uzyskiwane w wyniku syntezy rozwiązania nie zajmują minimalnych zasobów logicznych, jak i nie mają optymalnych właściwości dynamicznych. Istotą efektywnego odwzorowania technologicznego projektowanych układów cyfrowych w strukturach FPGA jest odpowiednio prowadzona dekompozycja funkcji logicznych, która stanowi podstawy teoretyczne efektywnego podziału układu pomiędzy bloki logiczne LUT, zawarte wewnątrz układu FPGA. Producenci układów FPGA zapewniają możliwość konfiguracji bloków logicznych zawartych wewnątrz struktury [1, 13]. Szczególnie istotna jest, zwykle niewielka, liczba wejść bloków logicznych zawartych w układach FPGA, gdyż ona stanowi główne ograniczenie projektowe. Problem efektywnego dopasowania technologicznego jest więc bezpośrednio związany z wyborem odpowiedniej dekompozycji funkcji i tworzenie odpowiedniej ścieżki dekompozycji. Celem artykułu jest przedstawienie metodologii poszukiwania odwzorowania technologicznego, pozwalającej na ocenę efektywności dopasowania technologicznego, która wskazuje na sposób doboru odpowiedniej dekompozycji w kolejnych etapach syntezy projektowanego układu. Przedstawiona w artykule metoda oceny efektywności odwzorowania technologicznego do struktury FPGA, jest dopasowana do zasobów struktury programowalnej scharakteryzowanych liczbą wejść bloków logicznych. Opracowana metoda oceny efektywności odwzorowania jest przeznaczona dla układów FPGA typu tablicowego. Problem dekompozycji funkcji Problem dekompozycji funkcji czy też zespołu funkcji jest tematem wielu prac naukowych [9, 12]. Dekompozycja jest modelem matematycznym podziału projektowanego układu na poszczególne bloki logiczne. Najprostszy model dekompozycji funkcji [4] sprowadza się do wyboru odpowiedniego podziału argumentów funkcji na... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Ocena symetrii postawy w teście stabilografii nadążnej (Tomasz Łukaszewicz, Dariusz Kania, Zenon Kidoń, Krystyna Pethe-Kania )
Stabilografia jest metodą diagnostyczną, w ramach której rejestrowane są, a następnie analizowane trajektorie zmian sił nacisku stóp człowieka na płaszczyznę jego podstawy. Przyrządem umożliwiającym pomiar trajektorii stabilograficznych jest specjalizowane urządzenie sensoryczne zwane platformą stabilograficzną [1]. Dwupłytowa platforma stabilograficzna wraz z oryginalnym oprogramowaniem pozwalającym na przeprowadzenie badań przedstawionych w niniejszym artykule została opracowana w Instytucie Elektroniki Politechniki Śląskiej. Podstawowe dane związane z konstrukcją platformy, jak i sposobem parametryzacji trajektorii stabilograficznych można znaleźć w pracach [1, 13, 15]. Z systemowego punktu widzenia układ utrzymywania równowagi ciała człowieka stanowi trójwejściowy blok regulacji [2]. Jego sygnały wejściowe generowane są przez układy: wzrokowy, przedsionkowy oraz somatosensoryczny (proprioceptywny i skórny). Układ wzrokowy odpowiedzialny jest za sygnalizację zmian położenia przestrzennego ciała względem otoczenia. Układ przedsionkowy dostarcza informacji na temat orientacji ciała względem wektora pola grawitacyjnego. Układ somatosensoryczny jest natomiast źródłem danych dotyczących fizycznego kontaktu kończyn dolnych z powierzchnią reakcyjną podłoża [3, 4]. System nerwowy, na bazie dostarczanych informacji, wytwarza impulsy sterujące wybranymi partiami układu mięśniowego, kompensując zaburzenia stabilności posturalnej. Należy podkreślić, iż system stabilizacji posturalnej człowieka jest w istocie układem samoistnie niestabilnym, stale wytrącanym ze stanu równowagi i jednocześnie kompensującym powstałe dewiacje [5]. Platforma stabilograficzna umożliwia rejestrację przemieszczeń punktu przyłożenia wypadkowej sił nacisku stóp na płaszczyznę podparcia - COP (ang. Center of Pressure). Ze względu na fizyczne trudności w realizacji pomiaru przemieszczeń rzeczywistego środka ciężkości ciała człowieka zastępczo mierzona jest tra... więcej»

Recycling of electronic waste - new approach (Marcin Szwech, Michał Kotarba, Małgorzata Jakubowska )
Currently the need for more efficient recycling of electronic waste becomes more apparent. One of the main factors for this is the rapid technology development in last few decades. New generation of electronic devices became more rapid than ever before thus shortening the life span of electronic parts from 4-6 years at the end of XX century to 2 years in first decade of XXI century. If this rate would continue to increase, within next few decades new generation of electronics will be release to market every few months. Economical and social aspects This current situation already significantly increased generation of electronic waste in turn raising new environmental issues. One of those issues is the placement of the waste. In the light of current EU legislation, directive 1999/31/EC, that states&#8220;to prevent or reduce as far as possible negative effects on the environment, in particular the pollution of surface water, groundwater, soil and air, and on the global environment, including the greenhouse effect, as well as any resulting risk to human health, from the landfilling of waste, during the whole life-cycle of the landfill"... więcej»

RFID technique in remote control system (Piotr Jankowski-Mihułowicz, Grzegorz Tomaszewski, Mariusz Węglarski)
RFID transponder advantages in remote control system RFID technique implementations in remote control systems give new opportunities in creating building automation or navigation systems that have potential to be used directly in consumer application [1-5]. In these proposals, RFID transponders can be implemented in non-typical way, as a remote trigger of an action [2, 5]. The two approaches to utilizing transponder intrinsic properties are possible in designing such a system. The first one is based on the typical object identification feature that takes place in a stationary interrogation zone (IZ) of RFID system (e.g. access control systems to a places or resources) [6, 7, 8]. The second approach assumes object identifications in several IZs [3, 4, 9]. It means that the recognized objects have fixed locations whereas the RWD (read/write device) dynamically changes position (the IZ moves in space). Of course, there is a possibility of combining both methods [2]. Authors propose a non-conventional use of the RFID system in smart building automation technology. The solution releases user from necessity to manually trigger actions in control process... więcej»

Direct current method of supercapacitors parameters identification (Grzegorz Błąd, Mariusz Pilecki&#8201;, Jerzy Potencki, Grzegorz Tomaszewski)
Supercapacitors are relatively new elements, particularly in the area of their applications in low-current and low-voltage electronic circuits (already used on a large scale in high-energy and highvoltage systems). Design of circuits which contains supercapacitors requires good knowledge of their internal parameters and behavior, especially in dynamic operation states (charging and discharging processes). The mechanism of charge separation in these elements is different in comparison to the conventional capacitors. Generally, there are two different mechanisms: the double electrical layer or the redox reaction. Both take place here, which makes that the standard capacitor models become insufficient. In the literature, it can be found a wide range of different approaches to the process of supercapacitors properties modeling; starting from the complex models coming out of construction and physical phenomena, which occur in the supercapacitor by a purely mathematical (based on the analysis of supercapacitor responses over a large variety of stimulus) to a very simplified electrical models. Unfortunately, only a few of them are suitable for direct implementation in a wide variety of professional EDA (Electronic Design Automation) programs [1-3]. Generally, models and practically useful parameters of supercapacitors are not available, except for the capacitance, which is given by the manufacturers. Even in this case, when the data is not accurate. For example it does not take into account a capacitance changes in f... więcej»

Przegląd formatów podpisu elektronicznego (Robert Poznański, Karol Szacki, Daniel Wachnik, Łukasz Stroiński)
Aktualnie na rynku podpisu elektronicznego uzyskują duże znaczenie cztery standardy definiujące w jaki sposób zapisać podpis elektroniczny. Są nimi CAdES, XAdES, PAdES oraz ASiC opisane w standardach wydawanych przez ETSI (European Telecommu- nications Standards Institute). Są to standardy opisujące tzw. zaawansowany podpis elektroniczny, który wyróżnia się tym, że spełnia wymagania dotyczące takiego rodzaju podpisu zdefiniowane w Dyrektywie 99/93/WE. W każdym podpisie elektronicznym muszą zostać zawarte podstawowe informacje identyfikujące podpisującego, oraz o przyjętej technice jego wygenerowania. Zalecane jest także załączenie certyfikatu użytego do złożenia podpisu. W strukturze samego podpisu zawierają się również odnośniki do danych, które są takim podpisem opatrzone. Wszystkie te informacje są wykorzystywane w czasie procesu weryfikacji ważności podpisu. Aplikacja weryfikująca musi odczytać informacje zawarte w pliku z podpisem. Zestandaryzowanie oraz określenie miejsc w jakich się znajdują informacje, umożliwia rozpoznawanie podpisu pomiędzy aplikacjami. Dla przykładu, konieczne jest zawarcie informacji jaka została użyta funkcja skrótu, najczęściej jest to funkcja z rodziny SHA [1] oraz jaki jest algorytm podpisu, obecnie powszechnie stosowany jest algorytm RSA [2] z długością klucza 2048 bitów. Informacje zawarte w certyfikacie pozwolą na zbudowanie i zweryfikowanie ścieżki certyfikacji. Mogą także wskazywać mie... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»