profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Kompensacja dryfu w skaningowym mikroskopie tunelowym przeznaczonym do badań nanostruktur grafenowych FoMaMet (Krzysztof Gajewsk, Rafał Kramek, Daniel Kopiec, Teodor Gotszalk)
Badania powierzchni we współczesnej praktyce pomiarowej wymagają precyzyjnych i bardzo czułych urządzeń, dokonujących pomiaru z atomową rozdzielczością. Spośród wielu obecnie dostępnych technik mikroskopowych skaningowa mikroskopia tunelowa (ang. Scanning Tunneling Microscopy, STM) zaprezentowana w latach 80-tych ubiegłego wieku przez Binniga i in. [1] spełnia powyższe wymagania. Związane jest to między innymi z eksponencjalną zależnością prądu tunelowego od odległości próbka-sonda pomiarowa. Powyższa zaleta mikroskopu STM może być źródłem niekorzystnych zjawisk związanych z dryfem termicznym czy relaksacją zastosowanych aktuatorów piezoelektrycznych. Objawiać się to będzie przesuwaniem się skanowanego obszaru w osi X oraz Y pomiędzy kolejnymi pomiarami czy też zbliżaniem/oddalaniem ostrza pomiarowego od mierzonej powierzchni (dryf w osi Z). O ile wpływ dryfu w osiach X/Y może zostać zredukowany przykładowo poprzez skanowanie w większym polu, a następnie przetworzenie uzyskanego obrazu czy stosowanie układów niwelujących dryf, o tyle w osi Z jest to utrudnione ze względu na obecność pętli sprzężenia zwrotnego. W pracy przedstawiono problem dryfu występującego w mikroskopie STM. Na przykładzie pomiarów wysokozorientowanego grafitu pyrolitycznego (ang. Highly Oriented Pyrolyric Graphite, HOPG) omówiono jego wpływ na pracę mikroskopu, oraz możliwe zakłócenia procedury pomiarowej. Zaproponowano modyfikację konstrukcji mikroskopu STM tak, aby szkodliwy wpływ dryfu termicznego uległ minimalizacji. W tym celu wykonano układ elektroniczny z precyzyjnym przetwornikiem cyfrowo-analogowym (ang. Digital-Analog Converter, DAC) i porównano go z rozwiązaniem komercyjnym. Przedstawiono również możliwości rozszerzenia opracowanego systemu. Dryf w skaningowym mikroskopie tunelowym Dryf w skaningowym mikroskopie tunelowym może pochodzić z następujących źródeł: - Dryf termiczny całej głowicy STM - w wyniku poboru prądu przez zastosowa... więcej»

Synteza nanowłókna z bionanocelulozy (BNC) (Przemysław Ceynowa, Justyna Wittych, Przemysław Rytczak, Katarzyna Kubiak, Marek Kołodziejczyk, Katarzyna Mitura 1, inż. Sebastian Krzewiński, Kacper Symonowicz, Stanisław Bielecki, Stanisław Mitura)
Elektrospinning jest metodą otrzymywania nanowłókien z płynnego polimeru lub jego roztworu, za pomocą wysokiego napięcia (<10 kV). Polimer pod wpływem prądu elektrycznego przybiera kształt włókna tzw. jetu i przesuwa się w stronę elektrody o przeciwnym ładunku. W naszych badaniach otrzymywaliśmy jednorodne i proste włókna. Mnogość parametrów którymi możemy sterować podczas prowadzonego procesu elektrospinningu umożliwia nam otrzymanie z tego samego materiału wyjściowego nanowłókien o różnych właściwościach. Niezwykłe możliwości pojawiają się poprzez zastosowanie dodatkowej obróbki powierzchni nanowłókien za pomocą technik jonowych [1, 2]. Metody otrzymywania nanowłókien Nanowłóknami nazywamy włókna o bardzo małych średnicach, wynoszących około 50&#8230;500 nm. Charakteryzują się one znaczną długością oraz niewielkim przekrojem poprzecznym, co skutkuje świetnym stosunkiem powierzchni do objętości. Wyróżniamy zarówno włókna pochodzenia naturalnego (np. celuloza, kolagen) jak i te syntetyzowane przez człowieka. Nanorozmiary nadają włókninie całkowicie inne właściwości niż te występujące w klasycznych włóknach. Unikatowe właściwości włókniny takie jak porowatość, duża powierzchnia oraz gęste usieciowienie nici polimerowych umożliwia jej zastosowanie zarówno w medycynie jak i przemyśle. Nanowłókna z bionanocelulozy Bionanoceluloza (BNC) to materiał wytwarzany metodami biotechnologicznymi przy użyciu bakterii Gluconacetobacter ... więcej»

Przestrzennie skorelowana, submikrometrowa analiza właściwości morfologicznych, mechanicznych i chemicznych kompozycji epoksydowej domieszkowanej nanokrzemionką (Andrzej Sikora, Łukasz Bednarz, Joanna Warycha, Leszek Moroń)
Kompleksowe badania materiałów, a w szczególności tzw. nanomateriałów w skali submikrometrowej pozwalają na uzyskanie cennych informacji na temat ich właściwości. Zastosowanie takich narzędzi jak mikroskopia elektronowa [1, 2] oraz mikroskopia bliskich oddziaływań [3, 4] pozwala na uzyskanie szerokiego spektrum danych na temat właściwości m.in.: morfologicznych [5], mechanicznych [6, 7], czy też chemicznych [8, 9]. Rosnąca dostępność i popularność tych technik pomiarowych w znaczącym stopniu wpłynęła na dynamiczny rozwój współczesnej inżynierii materiałowej [10]. Intensywne badania nad nanomateriałami izolacyjnymi podyktowane są zapotrzebowaniem rynku energetycznego na elementy charakteryzujące się zwiększoną odpornością na zabrudzenie oraz działanie czynników atmosferycznych (promieniowanie słoneczne, temperatura, wilgotność), lepszą wytrzymałością elektryczną, odpornością na działanie łuku elektrycznego, mniejszą masą czy też wreszcie niższą energochłonnością w procesie wytwarzania itd. [11-14]. Obiecujące w tym zakresie są kompozyty polimerowe z dodatkiem tzw. nanowypełniaczy, które ze względu na dużą powierzchnię interfazy z materiałem matrycy, radykalnie zmieniają jej parametry. Jedną z grup materiałów, które są obiektem zainteresowań w kontekście wyżej wspomnianych wymagań, są kompozycje epoksydowe zawierające nanodomieszki (np. krzemionka czy też montmorylonit). Ich badania realizowane są zarówno w skali makroskopowej, w celu weryfikacji finalnych parametrów produktów, jak również w nanoskali, aby ocenić wpływ parametrów poszczególnych procesów technologicznych na strukturę materiału i jego właściwości. Należy zwrócić uwagę na fakt, iż wieloetapowe badania właściwości powierzchni próbek w nanoskali z wykorzystaniem różnych metod pomiarowych, przy braku odpowiedniego rozwiązania umożliwiającego precyzyjne pozycjonowanie próbki, pociągają za sobą ryzyko realizacji pomiarów w różnych lokalizacjach. Ze względu na lokaln... więcej»

Implementacja wybranej metody klasterowej do klasyfikacji źródeł sygnałów EEG związanych z wyobrażaniem ruchu (Urszula Jagodzińska-Szymańska)
Mózg wykazuje bardzo zbliżoną aktywność zarówno podczas wyobrażania sobie ruchu jak i podczas wykonywania ruchu [10]. Lokalizacja obszarów aktywności mózgu jest zróżnicowana i zależy od tego, z którymi częściami ciała jest związana. Przykładowo ruch prawą i lewą ręką związany jest z obszarami znajdującymi się w korze ruchowej. Konkretne obszary aktywności mózgu związane z wykonywaniem ruchu przez różne części ciała są znane wtedy, kiedy znane jest rozwiązanie zagadnienia odwrotnego [9]. Należy jednak powiązać obszary mózgu z rodzajem wykonywanej aktywności poprzez przeprowadzenie klasyfikacji. Na podstawie wiedzy anatomicznej można dokładnie wyznaczyć obszary kory mózgowej skojarzone z wyobrażaniem sobie ruchu prawą i lewą ręką oraz innymi częściami ciała (np. na podstawie [16]). W celu przeprowadzenia klasyfikacji w niniejszej metodzie badawczej została wykorzystana t-statystyka. Do przeprowadzenia testów wykorzystane zostały przetworzone dane Data Set V z bazy Idiap [7-9]. Dane z Data Set V zawierają, między innymi, rozpatrywane przez autorkę dwa rodzaje aktywności myślowych (zadań myślowych) wykonywanych przez testowane osoby: K2 - wyobrażenie ruchu lewą ręką i K3 - wyobrażenie ruchu prawą ręką. Zestaw próbek w bazie Idiap został uporządkowany w taki sposób, że testowana osoba przez 15 sek. wykonywała jedno zadanie myślowe. Na podstawie wyznaczonego rozwiązania zagadnienia odwrotnego obliczono wartości t-statystyki dla obszarów, na które podzielono powierzchnię kory mózgowej P1, P2,..., PNM [9]. Wartości t-statystyki obliczono wykorzystując wzór (1) gdzie 1 , 2 to średnie, 1 2 , 2 2 to wzajemne wariancje liczone dla obszarów (obiektów) P1, P2,...,PNM dla pewnej liczby próbek odnoszących się do ruchu prawą i lewą ręką. Wiedza o tym, czy próbki dotyczą ruchu prawą czy lewą ręką pozwala na przeprowadzenie oceny jakości klasyfikacji. Przy pomocy t-statystyki została przetestowana istotność różnicy między średnim... więcej»

Optimization of neural network for current converter control (Marcin LIS, Piotr KOZIERSKI, Michał KRYSTKOWIAK, Adam OWCZARKOWSKI)
In previous articles [1, 2] H-bridge power converter has been used as an independent current source, which can be used for generation of the reference signal, pass energy to grid-on connections or compensating harmonics of non-linear loads. Neural network has been chosen as control regulator and it fulfilled its task well. The only downside of neural control was complicated structure of the network, which may restrict the choice of processor unit to achieve this control. Main goal of this article was to check, if neural network can have different structure, with preferably minimal number of neurons and weights. In following pages object is described. Next control scheme is presented. Then optimization method made using Genetic Algorithm has been shown, followed by neural network. Last, simulation results are presented, followed by conclusions. Object The object is a single-phase power electronics H-bridge inverter, in which control signal is current of the load. Its block diagram implemented in GeckoCIRCUIT software is presented in Figure 1. It consists of the following parts: a MOSFET transistor H-bridge, LC filter, almost purely inductive load with current measurement in load branch. Object parameters: ... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Symulacja 3D EM urządzeń elektronicznych powszechnego użytku pod kątem kompatybilności elektromagnetycznej EMC (Andreas Barchanski, Jarosław Kwiatkowski)
Przepływ prądu w urządzeniach elektronicznych generuje pole elektromagnetyczne. Gdy wiele urządzeń pracuje we wspólnym środowisku, wówczas oddziaływują one na siebie poprzez pole elektromagnetyczne, a to może wpływać na ich parametry lub nawet powodować ich uszkodzenia. W celu zmniejszenia ryzyka występowania problemów związanych z kompatybilnością elektromagnetyczną, normy EMC narzucają limity ograniczające poziomy emisji wytwarzanych przez urządzenia, które muszą być brane pod uwagę w procesie projektowania. Efekty powodujące problemy EMC, takie jak rezonanse, sprzężenia i wycieki pola, są jednak skomplikowane i często są trudne do przewidzenia, tak więc tradycyjne podejście do projektowania uwzględniającego EMC pociąga za sobą konieczność pomiarów. Testy EMC są wykonywane jednak dopiero na późnym etapie procesu projektowania, już po wykonaniu prototypu. Budowa prototypu reprezentuje bowiem znaczne koszty w procesie rozwoju produktu. Obejmują one niezbędny czas wykonania, nakład pracy i koszty materiałowe. Dlatego walka z problemami EMC na tym późnym etapie projektowania wymaga znacznych poświęceń. Zlokalizowanie źródła problemu EMC w złożonym systemie elektronicznym, jest często bardzo trudne i czasem wszystko, co konstruktor może zrobić, to tylko zwalczać objawy. Dzięki elektromagnetycznym symulacjom komputerowym parametry urządzenia pod kątem EMC mogą być sprawdzane na każdym etapie cyklu projektowego. W szczególności wyniki symulacji mogą wpływać na projekt urządzenia, umożliwiając wirtualne testowanie wielu możliwych konfiguracji - na przykład różniących się ustawieniem płytki lub położeniem elementu - stosunkowo szybko i tanio. Urządzeniem, które posłużyło za przykład w artykule jest bezprzewodowy router, dostarczony przez Cisco. Router zawiera szereg komponentów, które mogą być analizowane pod kątem kompatybilności elektromagnetycznej w procesie projektowania, i które do pełnej analizy wymagają zastosowania różnor... więcej»

Synteza nowych poliazometin dla zastosowań w fotowoltaice polimerowej (Kacper Parafiniuk, Agnieszka Iwan, Igor Tazbir, Lech Górecki)
Poprzez reakcję polikondensacji dialdehydów oraz diamin aromatycznych można w prosty sposób otrzymywać polimery o skoniugowanych wiązaniach TT - poliazometiny (poliiminy). Sprzężenie zapewniają powstające podwójne wiązania aldiminowe. Tego typu związki można uważać za półprzewodniki organiczne, podobnie jak szeroko badane politiofeny czy też polifenylowinyleny, interesujące z punktu widzenia elektroniki organicznej, także fotowoltaiki [1, 2]. Podstawową wadą poliazometin (PAZ) jest ich słaba rozpuszczalność [1, 2] w większości rozpuszczalników organicznych, co jest niezmiernie uciążliwe przy wytwarzaniu ogniw fotowoltaicznych. Dodatkowo otrzymywane PAZ wykazują stosunkowo niskie masy cząsteczkowe, w porównaniu do innych polimerów przewodzących, co ogranicza ich praktyczne zastosowania. W celu zwiększenia rozpuszczalności wprowadza się do struktury sprzężonego polimeru ugrupowania boczne - długie, często rozgałęzione łańcuchy alifatyczne lub grupy o charakterze objętościowym (np. cardo) [3, 4]. Niestety modyfikacja budowy chemicznej poliazometin nie zawsze przynosi tak zadowalający efekt jak w przypadku innych sprzężonych polimerów. Poliazometiny są wciąż niedostatecznie zbadaną grupą związków dla zastosowań w fotowoltaice, zatem istnieje potrzeba prowadzenia nad nimi dalszych badań zarówno podstawowych jak i zmierzających w kierunku zastosowań [1, 2]. W niniejszej pracy przedstawione zostały cztery nowe poliazometiny dla zastosowania w objętościowych polimerowych ogniwach fotowoltaicznych. Określone zostały podstawowe właściwości związków takie jak rozpuszczalność, termostabilność, absorpcja w zakresie widzialnym i bliskim nadfiolecie (zarówno w roztworze jak i cienkiej warstwie). Skonstruowano polimerowe objętościowe ogniwa fotowoltaiczne, w których komponent donorowy warstwy aktywnej stanowiła poliimina, akceptorowy z... więcej»

Struktury kwantowe ZnMgO/ZnO/ZnMgO wykonywane metodą MBE (Adrian Kozanecki, Jacek Sajkowski, Marcin Stachowicz, Ewa Przeździecka, Marcin Syperek)
Tlenek cynku i jego stopy np. z Mg są intensywnie badane ze względu na potencjalnie szerokie możliwości zastosowań w urządzeniach optoelektronicznych takich, jak źródła światła UV [1], selektywne detektory UV [2], lasery UV, przezroczyste tranzystory cienkowarstwowe [3] i szereg innych. Dla poszczególnych zastosowań konieczna jest inżynieria przerwy energetycznej. Stapienie ZnO z MgO pozwala na zwiększenie przerwy energetycznej z 3,3 eV dla ZnO o strukturze wurcytu do 7,8 eV dla MgO, które ma strukturę kubiczną typu NaCl. Niedopasowanie strukturalne ZnO i MgO powoduje, że przy wzroście ZnMgO pojawia się poważny problem separacji faz dla zawartości Mg powyżej 40% [4]. Dlatego celowe jest staranne kontrolowanie składu ZnMgO i dla większości zastosowań utrzymywanie go poniżej 30% dla zachowania wysokiej jakości warstw ZnMgO. Niezwykle cenną zaletą ZnO jest wysoka wartość energii wiązania ekscytonu swobodnego, wynosząca 60 meV. W studniach kwantowych ZnMgO/ZnO/ZnMgO energia wiązania ekscytonu może wzrosnąć nawet do 100 meV, co pozwala myśleć o skonstruowaniu urządzeń optoelektronicznych, wykorzystujących rekombinację ekscytonów swobodnych w temperaturze pokojowej. Wysoka wartość energii wiązania ekscytonu wiąże się bezpośrednio z małym promieniem bohrowskim, wynoszącym zaledwie ok. 1,8-2,0 nm. Tak mała wartość promienia Bohra powoduje, że dla obserwacji efektów związanych z kwantowym efektem rozmiarowym konieczne jest otrzymywanie struktur kwantowych o szerokościach mniejszych niż 2*aB, a więc ~4 nm. Z tego samego powodu dla zbadania procesów tunelowania pomiędzy studniami kwantowymi, np. w układach studni sprzężonych lub wielostudni, konieczne jest stosowanie barier ZnMgO o grubościach poniżej 2-3 nm. W tej pracy zaprezentowane są badania struktur ZnMgO/ ZnO/ZnMgO otrzymywanych metodą epitaksji z wiązek molekularnych (z ang. MBE). W szczególności przedstawione zostaną wyniki prac nad układami asymetrycznych studni podwójnych, ... więcej»

System rozpoznawania komend głosowych z zastosowaniem systemu wbudowanego (Paweł Tomasik, Przemysław Barański)
Technologia rozpoznawania mowy znajduje zastosowanie w wielu dziedzinach. Przykładem może być komunikacja osoby niepełnosprawnej z komputerem lub sterowanie wybranymi niekrytycznymi funkcjami w samolocie. Rozpoznawanie mowy zdobywa coraz szersze uznanie w telefonicznych centrach obsługi klienta, gdzie osoba dzwoniąca opisuje swój problem słownie. System automatycznie łączy do odpowiedniego konsultanta [1]. Mimo wielu prowadzonych badań problem rozpoznawania mowy jest problemem otwartym i trudnym o czym może świadczyć projekt Siri, który jest rozwijany od roku 2010 i pochłonął ponad 100 milionów dolarów [2]. W uproszczeniu, z punktu widzenia przetwarzania sygnałów, za wytwarzanie mowy odpowiedzialne są struny głosowe oraz tzw. trakt głosowy [3]. Widmo drgających strun głosowych przedstawiono na rysunku 1. Widmo takie posiada szereg harmonicznych. Pierwsza harmoniczna nazywana jest podstawową częstotliwością tonu krtaniowego. Dźwięk drgających strun głosowych nazywany jest pobudzeniem krtaniowym. W przypadku głosek bezdźwięcznych ("p", "t", "k", "f", "s", "ś", "sz", "c", "ć", "cz", "ch") pobudzenia krtaniowego nie ma. Trakt głosowy pełni rolę filtru modelującego widmo sygnału mowy. Charakterystyka traktu głosowego zależy od ułożenia języka, żuchwy, warg, podniebienia. W wyniku połączenia tonu krtaniowego oraz traktu głosowego otrzymujemy na charakterystyce widmowej cztery skupiska o dużej energii, które nazywamy formantami. Powyższy schemat generacji sygnału mowy nazywany jest również modelem źródło-fil... więcej»

Stanowisko pomiarowe do wyznaczania parametrów transformatorów impulsowych (Krzysztof Górecki, Krzysztof Górski, Małgorzata Rogalska)
Transformatory impulsowe są ważnym komponentem impulsowych układów zasilających [1, 2]. Pomimo prostej konstrukcji tych elementów, zawierających jedynie rdzeń ferromagnetyczny i uzwojenia, projektowaniu transformatorów impulsowych poświęca się wiele uwagi w książkach z zakresu energoelektroniki [1, 3, 4, 5]. Właściwości tego elementu zależą przede wszystkim od wyboru materiału rdzenia [3, 6, 7]. W notach katalogowych podawane są wybrane informacje o parametrach materiałów ferromagnetycznych oraz parametry geometryczne rdzeni. Prezentowane w tych notach charakterystyki dotyczą tylko wybranych częstotliwości przy pobudzeniu sygnałem sinusoidalnym [8]. W celu zmierzenia charakterystyk i parametrów eksploatacyjnych rdzeni ferromagnetycznych oraz transformatorów impulsowych w szerokim zakresie częstotliwości, temperatur, kształtów sygnałów pobudzających itd. niezbędne jest odpowiednie stanowisko pomiarowe. Parametry elementów magnetycznych, takich jak dławiki i transformatory, obejmują zarówno parametry elektryczne, jak i magnetyczne oraz termiczne. Parametry magnetyczne dotyczą rdzenia ferromagnetycznego, zaś parametrami elektrycznymi są m.in. indukcyjność i rezystancja strat dławika, pojemność międzyzwojowa, przekładnia napięciowa transformatora, jego sprawność energetyczna, rezystancje szeregowe uzwojeń itd. [9, 10]. Z kolei, parametrami termicznymi, opisującymi skuteczność rozpraszania ciepła generowanego w elemencie, są własne i wzajemne przejściowe impedancje termiczne [7, 11]. Każda z wymienionych powyżej grup parametrów materiałów lub elementów magnetycznych wymaga pomiaru w specyficznym układzie pomiarowym. Klasyczne układy i metody pomiaru wybranych parametrów materiałów i elementów magnetycznych opisano m.in. w pracy [12]. Jednak metody te są dedykowane do charakteryzowania właściwości materiałów w warunkach statycznych oraz do wyznaczania indukcyjności i rezystancji szeregowej cewek. Z kolei, w pracy [13] opisano ukł... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Quasi-elastyczne mozaikowe taśmy fotowoltaiczne (Kazimierz Drabczyk, Stanisław Maleczek, Piotr Panek )
Rynek produktów fotowoltaicznych mimo kryzysu ekonomicznego nadal przeżywa ciągły wzrost produkcji oraz staje się coraz powszechniej stosowanym alternatywnym źródłem energii na świecie [1]. Przemawiają za tym głównie czynniki dotyczące ochrony środowiska naturalnego, jak również czynniki ekonomiczne oraz bezpieczeństwa energetycznego. Ciągły rozwój tej dziedziny przyczyni się także do stałego spadku cen modułów w relacji USD/Wp [2]. Jednakże dotyczy on najpowszechniej produkowanych oraz stosowanych baterii słonecznych w postaci modułów fotowoltaicznych o standardowych wymiarach, które stosowane są w typowych instalacjach produkujących energie elektryczną. Tego typu moduły konstruowane są w oparciu o ramy aluminiowe oraz zabezpieczające szyby ze szkła hartowanego o wysokiej transmisji dla światła słonecznego. Pojawia się jednak wiele dziedzin, w których od baterii słonecznych wymaga się przede wszystkim niskiej wagi i elastyczności. Należą do nich układy zasilania na potrzeby wojska oraz systemy wykorzystywane w sytuacjach kryzysowych. Autorzy przedstawili już koncepcje takich właśnie baterii przy czym pierwotnie zakładano stworzenie taśmy wyposażonej w elektronikę wykonawczą oraz stworzenie specjalnej maty PV [3]. W niniejszym artykule przedstawiono pierwsze badania dotyczące wykonania elastycznej taśmy fotowoltaicznej. Eksperyment Cięcie ogniw o dużej powierzchni na małe struktury Laboratorium Fotowoltaiczne IMIM PAN posiada opracowaną technologię wytwarzania ogni... więcej»

Horyzont energoelektroniczny obiektów morskich (Ryszard Strzelecki, Piotr Mysiak, Daniel Wojciechowski)
Charakter i kierunki rozwoju energoelektroniki Współczesna energoelektronika, której początki sięgają komercjalizacji tyrystora SCR (Silicon Controled Rectifier) przez firmę General Electric w 1958 r., jest jednym z wielkich sukcesów XX wieku. Skupiając różne techniki impulsowego przekształcania parametrów energii elektrycznej (EE), energoelektronika umożliwia dynamiczne sterowanie i dopasowanie parametrów źródeł zasilania na potrzeby zasilanych urządzeń, ze sprawnością bliską 100%. Jej rozwój, w perspektywie XXI w., ściśle wiąże się z wdrożeniami nowych, w pełni sterowalnych przyrządów energoelektronicznych. Przykładowo, od niedawna szybko upowszechniają się zastosowania przyrządów na bazie węglika krzemu. Mimo to, jak na razie, rozwój energoelektroniki, w szczególności w zakresie większych mocy, bazuje głównie na przyrządach krzemowych. Dąży się przy tym do osiągania coraz większych prądów przewodzenia, wyższych napięć blokowania oraz korzystniejszych właściwości dynamicznych (wyższych częstotliwości łączeń). Stan aktualny parametrów pracy ważniejszych przyrządów energoelektronicznych przedstawiono na rys. 1. Ze względu na charakter interdyscyplinarny, rozwój energoelektroniki zależy również od postępu w wielu innych obszarach, a nie tylko w fizyce ciała stałego. Wynika to zarówno z samego przedmiotu energoelektroniki, jak i obszarów aplikacji urządzeń energoelektronicznych (UE). W szczególności są to: napędy precyzyjne prądu stałego i przemiennego z maszynami konwencjonalnymi i specjalnymi, w tym o magnesach trwałych; napędy bardzo dużej mocy i/lub średniego napięcia, w tym napędy trakcyjne, na statkach i okrętach, młynów, taśmociągów itp.; napędy i zasilanie ekologicznych pojazdów elektrycznych lub hybryd... więcej»

Szyfrator wykorzystujący odwracalne układy logiczne (Andrzej Skorupski, Marek Pawłowski, Krzysztof Gracki, Paweł Kerntopf)
Logika odwracalna wykorzystuje pewną klasę funkcji boolowskich wielu zmiennych, które są nazywane funkcjami odwracalnymi. Funkcją odwracalną nazywamy zespół n funkcji n zmiennych, przy czym każda z tych funkcji musi spełniać dwa warunki: &#9679; wszystkie funkcje są tzw. funkcjami zrównoważonymi, tj. takimi, że dla 2n-1 kombinacji zmiennych wejściowych (połowa wszystkich możliwych) funkcja przyjmuje wartość 1, a dla pozostałych 2n-1 kombinacji zmiennych wejściowych (druga połowa wszystkich możliwych) funkcja przyjmuje wartość 0, - n-bitowy wektor wyjściowy przyjmuje wszystkie możliwe kombinacje wartości n zmiennych. Ten ostatni warunek oznacza, że prawa (wyjściowa) strona tablicy prawdy funkcji odwracalnej stanowi permutację wierszy lewej (wejściowej) strony tej tablicy. Dla skrócenia zapisów będziemy przedstawiali wektory binarne w postaci odpowiadających im liczb dziesiętnych (zamiast 000 będziemy pisali 0, 001 - 1, 010 - 2, itd.). Można pokazać, że dla 2 zmiennych istnieją 24 (4!) różne funkcje odwracalne. Dla 3 zmiennych jest ich 40320 (8!), a dla 4 zmiennych ponad 20 bilionów (16!). Każdą z tych funkcji odwracalnych można zrealizować wykorzystując tzw. bramki odwracalne. W niniejszej pracy stosujemy tzw. bibliotekę bramek NCT opisaną w [1, 2]. Dla trzech zmiennych definiuje się 12 takich bramek, po 4 dla każdej zmiennej, czyli na każdej linii wejściowej. Na rys. 1 pokazano cztery bramki dla zmiennej x0, czyli na pierwszej linii. Są to bramki: T0, C0- 2, C0-1 i N0, dla których na linii x0 umieszczony jest symbol operacji XOR. W lewej kolumnie tablicy (rys. 1), pokazano oznaczenie graficzne bramki realizującej funkcję y0, (jest to tzw. wyjście sterowane), w ostatniej kolumnie tablicy - jaką permutację wierszy realizuje dana bramka. Analogicznie, bramki mające wyjścia sterowane na linii x1 oznaczane będą przez T1 (zamienia wiersze 5 i 7 w tablicy prawdy), C1-0 (zamienia wiersze 1 i 3 oraz 5 i 7), C1-2 (zamienia w... więcej»

The morphology and optical properties of silicon etched with bimetallic catalysts (Aneta KĘDRA, Robert P. SOCHA, Małgorzata ZIMOWSKA, Piotr PANEK, Lilianna SZYK-WARSZYŃSKA, Marek LIPIŃSKI, Piotr WARSZYŃSKI)
For the solar cells, which principle of operation is based on the light absorption, every energy loses pose a problem. Namely, reflectivity of the silicon surface used for photovoltaic cell production is one of the factors that needs to be minimized to approach the required absorption properties. The mitigation of the reflectivity is possible in two ways: by the use of an antireflective layer and/or by creation of a specific texture on the silicon surface. Both methods are effective but the texturization shows more advantages. The etching processes with the use of acid or alkaline systems are applied for the latter purpose [1, 2]. Moreover, the wet Metal- Assisted Chemical Etching (MAE) enables control of cross-sectional shape, diameter, length, doping type, doping level and the orientation of silicon nanostructures [3]. It is also possible to accelerate the surface recombination velocity due to increase of the silicon surface area [1]. Additionally, the textured surface allow for absorption of the reflected radiation resulting in an increase of the overall illumination density. The oxidant reduction, which occurs on the surface of metal, is an initial process of MAE. As a result, holes are generated and diffuse through the meta... więcej»

Analiza właściwości optycznych oraz projektowanie półprzezroczystych cienkich warstw Ag w zakresie VIS-NIR (Jarosław Domaradzki, Danuta Kaczmarek, Michał Mazur, Damian Wojcieszak, Tomasz Jędrzejak )
Cienkie warstwy srebra znajdują zastosowanie w konstrukcji różnych powłok optycznych. Do jednych z najczęściej wykorzystywanych należą powłoki odbijające promieniowanie optyczne w szerokim zakresie długości fali stosowane do wytwarzania luster. W wypadku warstw Ag o grubości od kilku do kilkunastu nanometrów, warstwy takie wykazują częściową przepuszczalność dla światła w widzialnym zakresie widma promieniowania optycznego oraz odbicie światła w zakresie bliskiej podczerwieni. Taka właściwość Ag znajduje z kolei zastosowanie w konstrukcji tzw. powłok niskoemisyjnych, stosowanych powszechnie w szkle architektonicznym. Projektowanie powłok optycznych, przeznaczonych do różnych zastosowań wymaga znajomości przebiegu charakterystyk dyspersji współczynników załamania i ekstynkcji światła materiału, z którego wytworzona będzie powłoka. W wypadku bardzo cienkich warstw, charakterystyki te mają jednak inny przebieg niż obserwowany dla materiałów litych. W niniejszej pracy przedstawiono wyniki badania oraz analizy właściwości optycznych powłok Ag o grubości 5, 10 i 15 nm wytworzonych metodą parowania wiązką elektronową oraz porównano wyniki projektowania powłok Ag z wykorzystaniem danych uzyskanych dla analizowanych warstw. Część eksperymentalna Cienkie warstwy testowe naniesione zostały na podłoża szklan... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Selektywna katalityczna redukcja tlenków azotu jako sposób ograniczenia emisji zanieczyszczeń do środowiska (Artur WITOWSKI, Krzysztof JASEK)
Zanieczyszczenia gazowe, ze względu na swoją mobilność, stanowią najbardziej niebezpieczną grupę czynników degradujących środowisko naturalne. Wśród zanieczyszczeń gazowych najbardziej istotnymi, ze względu na wielkość emisji i zagrożenie dla środowiska, poza dwutlenkiem siarki, tlenkami węgla, lotnymi związkami organicznymi, pyłami, są tlenki azotu. Powodują one silną degradację środowiska - są odpowiedzialne między innymi za powstawanie kwaśnych deszczy oraz smogu [1, 2]. Spośród występujących w przyrodzie tlenków azotu (N20, NO, N2O3, NO2, N2O4, N2O5) w gazach poreakcyjnych emitowanych do do atmosfery dominuje tlenek azotu (NO) oraz ditlenek azotu (NO2). Dlatego też, w inżynierii ochrony środowiska, za kryterium wielkości emisji tlenków azotu do środowiska przyjęto sumę zawartości NO i NO2 (w przeliczeniu na NO2). Ta sumaryczna wielkość oznaczana jest w literaturze technicznej symbolem NOx. Emisja tlenków azotu w gazach wypuszczanych do środowiska podlega uregulowaniom prawnym poszczególnych państw oraz UE. W Polsce dopuszczalne wielkości emisji tlenków azotu, w zależności od mocy cieplnej źródła i stosowanego paliwa, określa Rozporządzenie Ministra Środowiska z dnia 2011 r. (Dz. U. 2011Nr 95 poz. 558) [3]. Zgodnie z jego treścią, obecnie dopuszczalne wielkości emisji tlenków azotu do atmosfery zostaną zaostrzone od 2016 r. Związane to jest z dostosowywaniem polskich uregulowań prawnych do Dyrektywy Unii Europejskiej 2010/75/UE [4]. W Polsce emisja tlenków azotu stanowi ok. 10% łącznej krajowej wielkości emitowanych zanieczyszczeń gazowych [5]. Głównymi źródłami emisji do atmosfery tlenków azotu są takie gałęzie polskiej gospodarki jak: przemysł energetyczny, chemiczny oraz transport. W ostatnich latach, jak wynika z danych Krajowego Ośrodka Bilansowania i Zarządzania Emisjami (KOBiZE), notuje się stopniowe zmniejszanie emisji do środowiska zanieczyszczeń tlenkami azotu [6]. Ilustruje to tabela 1. Tab. 1. Zestawienie dany... więcej»

Metoda szybkiej kalibracji torów kontroli ciągłości uziemienia zabezpieczeniowego urządzenia towarzyszącego (Karol Makowiecki, Paweł Michalski)
Głównym zadaniem górniczych sterowników zabezpieczeniowych, których obwody pracują w atmosferze metanowej wyrobisk węgla kamiennego jest ochrona przeciwporażeniowa personelu kopalni. W tym celu w górniczych sterownikach polowych stosuje się obwody iskrobezpieczne podlegające dyrektywie ATEX [1]. Rozwiązania układowe obwodów kontroli ciągłości uziemienia iskrobezpiecznego wymagają dużej liczby pomiarów kontrolujących wartości poszczególnych elementów schematu elektrycznego zawierającego zarówno elementy liniowe (rezystancja szeregowa i rezystancja równoległa) jak i element nieliniowy w postaci diody. Stosowane dotychczas rozwiązania wymagały czasochłonnej kalibracji każdego obwodu. Wydłużony czas kalibracji spowodowany był zastosowaniem w pełni analogowych obwodów zawierających precyzyjne potencjometry ustalające punkty pracy obwodu. Układy te były podatne na zakłócenia impulsowe, a zmiany poszczególnych elementów obwodu wpływały na zmianę wartości innych elementów. Rysunek 1 przedstawia schemat funkcjonalny prezentujący obwód kontroli ciągłości uziemienia podczas normalnej pracy. Do zacisków L1 i L2 obwodu kontroli ciągłości uziemienia dołączony jest pasywny obwód składający się z długiego odcinka przewodu uziemionego w pobliżu uziemionego elementu wyposażenia kopalni np. silnika trójfazowego. Do obwodu włączona jest szeregowa dioda krzemowa, która pozwala na wykrycie najgroźniejszej z punktu widzenia bezpieczeństwa sytuacji, to jest zwarcia obwodu kontroli ciągłości uziemienia z pominięciem uziemienia diody - a więc sytuacji w której obwód bez diody krzemowej nie jest w s... więcej»

Kompozyty magnetycznie miękkie przeznaczone do pracy przy częstotliwości z zakresu 1 do 100 kHz (Bartosz Jankowski, Marek Przybylski, Dariusz Kapelski, Barbara Ślusarek)
Materiały magnetyczne stosowane w elektrotechnice dzielą się na materiały magnetycznie miękkie przeznaczone na obwody magnetyczne, materiały magnetycznie twarde przeznaczone na magnesy trwałe oraz materiały półtwarde stosowane, jako materiały, które trwale są namagnesowane, lecz stosunkowo łatwo ulegają rozmagnesowaniu czy przemagnesowaniu. Materiały magnetycznie twarde lub magnetycznie miękkie są wykonywane m.in. jako kompozyty, czyli materiały składające się, co najmniej z dwóch składników tzw. faz. W kompozytach magnetycznych najczęściej jeden składnik pełni rolę lepiszcza, natomiast drugi nadaje mu właściwości magnetyczne. W przypadku kompozytowych materiałów magnetycznie miękkich jednym składnikiem jest proszek magnetycznie miękki najczęściej proszek żelaza, natomiast spoiwem są spoiwa organiczne takie jak żywice i kleje epoksydowe lub nieorganiczne takie jak np. szkło fosforanowe. Spoiwa stosowane do klejenia proszku magnetycznego są izolatorami elektrycznymi, co umożliwia stosowanie kompozytów magnetycznych w obecności zmiennych pól magnetycznych z uwagi na małe straty z prądów wirowych oraz brak wypierania strumienia magnetycznego z magnetowodu. Magnetycznie miękkie kompozyty są ciekawą alternatywą dla klasycznych materiałów magnetycznych takich jak np. blachy elektrotechniczne, do zastosowania w obwodach magnetycznych pracujących przy zmiennym strumieniu magnetycznym. Dotychczasowe badania pokazały, że stosowanie kompozytów magnetycznych wykonanych ze sprasowanego pod dużym ciśnieniem proszku żelaza pozwala obniżyć straty mocy w porównaniu do obwodów magnetycznych wykonanych z blach elektrotechnicznych. Kompozyty magnetycznie miękkie pracujące powyżej częstotliwości 400 Hz wykazują straty mocy mniejsze niż obwody magnetyczne wykonane z blach elektrotechnicznych. Obecnie jako rdzenie na dławiki i transformatory w zakresie częstotliwości od kilkudziesięciu kHz do kilku MHz powszechnie stosowane są tzw. rdzenie proszk... więcej»

Badania magnetycznych czujek stykowych stosowanych w systemach alarmowych (Stefan Kuciński)
W systemach alarmowych stosowane są różne rodzaje czujek, w zależności od określonych sposobów ochrony obiektów. Powszechnie stosuje się pasywne i aktywne czujki podczerwieni, czujki mikrofalowe, ultradźwiękowe lub czujki dualne składające się z dwóch detektorów, np. podczerwieni i mikrofal. Metodyka ich badań przedstawiona jest w odpowiednich normach, a także w różnych publikacjach, np. [1 i 2]. Dużą grupę stanowią również czujki magnetyczne stykowe, które zwane są też kontaktami magnetycznymi. Czujki te stosowane są w systemach alarmowych głównie do ochrony okien, drzwi, bram lub innych elementów ruchomych, przez które jest możliwe wejście do chronionego obiektu. Mogą one być instalowane na elementach drewnianych, plastykowych i metalowych. Współpracują z centralami alarmowymi, które monitorują stan czujek i przetwarzają otrzymywane sygnały. Zadaniem czujek magnetycznych jest wysłanie do centrali odpowiedniego sygnału w przypadku, gdy nastąpiła próba wtargnięcia do wnętrza chronionego obiektu lub też, gdy nastąpiła próba uszkodzenia czujki lub przerwania połączeń między nią a urządzeniami współpracującymi. Rodzaj przesyłanego sygnału wynika ze stanu czujki (zwarcie lub rozwarcie styku). Czujki te są również wykorzystywane w systemach automatyki. Ich szeroki zakres zastosowań wynika ze szczególnych właściwości - charakteryzują się wysoką odpornością na zabrudzenie, zapylenie i wibracje, a także prostą budową i niskim kosztem. Niektóre z tych czujek posiadają zdolność do pracy w szerokim zakresie temperatur, a także charakteryzują się wysokim stopniem ochrony przeciwsabotażowej, co umożliwia stosowanie ich w miejscach wymagających szczególnego nadzoru. W przypadku ochrony pomieszczeń mieszkalnych istotną właściwością czujek magnetycznych jest ich niewrażliwość na poruszanie się w tych pomieszczeniach zwierząt domowych. Czujki magnetyczne mają bardzo prosta budowę, składają się z dwóch elementów magnesu trwałego i kontaktronu.... więcej»

Charakteryzacja przyrządów kluczujących pod względem zastosowania w generatorach ultradźwiękowych dużej mocy (Krystian Król, Witold Kardyś, Łukasz Krzemiński, Marcin Kiełbasiński, Bohdan Młynarski&#8201;)
Technologia ultradźwiękowa znajduje coraz większe zastosowanie w przemyśle przy zgrzewaniu tworzyw sztucznych i metali, czy też przy wykorzystaniu efektu kawitacji do czyszczenia detali przemysłowych oraz rozdrabniania półproduktów płynnych [1]. Wszystkie wymienione przemysłowe zastosowania technologii ultradźwiękowej wymagają zastosowania przetworników oraz układów drgających dużej mocy. W tego typu konstrukcjach wiele parametrów użytkowych zależy od paramentów generatorów sygnałów elektrycznych zasilających przetworniki ultradźwiękowe. Wraz ze wzrastającą mocą układów drgających zmieniają się również wymagania oraz konstrukcja stopni wyjściowych generatorów ultradźwiękowych zasilających przetworniki. Współcześnie moc dysponowana generatorów ultradźwiękowych pracujących z częstotliwością 18-20 kHz może dochodzić nawet do 4-6 kW [2]. Zwiększa to znacznie wymagania stawiane przyrządom półprzewodnikowym pracującym jako klucze w stopniach wyjściowych generatorów. Muszą się one charakteryzować wysokim dopuszczalnym prądem pracy, wysokim napięciem blokowania, a jednocześnie zapewnić optymalne warunki przełączania ze względu na stosunkowo wysokie częstotliwości pracy powodujące wzrost udziału strat komutacyjnych. W artykule analizie poddano właściwości dynamiczne półprzewodnikowych elementów kluczujących spełniających wymagania stawiane stopniom wyjściowym generatorów dużej mocy tzn. cechujących się prądami ciągłymi pracy na poziomie 20-30 A, napięciem blokowania większym niż 700 V. Warunki takie spełniają dwie konstrukcje przyrządów półprzewodnikowych - tranzystory IGBT wykonywane w technologii krzemowej oraz obecne od niedawna tranzystory MOSFET wykonywane w technologii węglika-krzemu. Analizie poddano właściwości dynamiczne tych rozwiązań. Konstrukcja wyjściowego układu falownika Ponieważ model zastępczy elektromechanicznego układu drgającego, pokazany na rys. 1, jest równoważny układowi rezonansowemu, musi być on pobudzany na... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Computer game as means of Mine Risk Education for children (Andrzej Kaczmarczyk, Piotr Kowalski, Marek Kacprzak, Andrzej Masłowski)
Educational computer game being the subject of this paper is developed by IMM as a part of an European FP7 Collaborative Integration Project named TIR AMISU (Toolbox Implementation for Removal of Anti-personnel Mines, Submunitions and UXO)(UXO - Unexploded Ordnance). TIR AMISU aims at providing the foundation for a global toolbox that will cover the main Mine Action activities, from the survey of large areas to the actual disposal of explosive hazards, including Mine Risk Education (MRE ). The project has been planned for years 2012-2015 with participation of 24 partners from 11 countries. In this paper introductory information and assumptions making up a base for the game design are presented. State of the art Computer games find their application in education generally. They have "tremendous potential and level of capability as mediums of education", and many advantages because they offer: "agency, immersion, challenge, reward, immediacy, a dialect of repetition and variety, physical and mental engagement, and multi-sensory stimulation" [1]. As computer games advantages in education are considered also: &#8220;active participation, intrinsic and prompt feedback, challenging but achievable goals, and a certain degree of uncertainty and open-endedness" [2]. More complete list of attributes of the learning via computer games gives [3]. Specific aiming of educative computer games can be characterized - after [4] - as &#8220;to spawn objects, connect them with various constraints and thus create working systems that obey the laws of physics". Such applications can be found in chemistry (virtual laboratory), architectural design, biology (cell biology, virtual dissection), assembling (model of a car, experimental apparatus). Similar character have games with virtual lego bricks [5]. Advantages of this learning-by doing educational approach in computer games are discussed in [6]. Moreover - maybe first of all - there... więcej»

Synteza 128-bitowych komparatorów hierarchicznych w strukturach CPLD/FPGA (MAREK GRUSZEWSKI)
Komparator binarny (nazywany dalej komparatorem) należy do układów kombinacyjnych i służy do porównywania wartości dwóch słów binarnych, np. A i B. Komparator tradycyjny (rys. 1) ma trzy wyjścia i realizuje następujące funkcje: G (A > B), E (A = B), L (A < B), gdzie A = at ... a1 oraz B = bt ... b1.Komparatory należą do podstawowych komponentów systemów cyfrowych. Są kluczowymi elementami w szerokim zakresie zastosowań, tj.: w procesach obliczeniowych (grafika oraz przetwarzanie obrazów/sygnałów [1]), w układach testujących (analizatory sygnatur, wbudowane układy samotestujące [2]), w procesach poszukiwania i sortowania danych [3], jako komponenty w procesorach ogólnego przeznaczenia: pamięci asocjacyjne (skojarzeniowe), bufory TLB (Translation Lookaside Buffer), bufory BTB (Branh Target Buffer) i wiele innych bloków porównywania argumentów w CP U [4]. Rozbudowany układ cyfrowy na ogół przedstawiany jest jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych. Do takich bloków funkcjonalnych należą m.in. komparatory. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CP LD) oraz bezpośrednio programowalne macierze bramek (FPGA) [5]. W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przetwarzania i przesyłania informacji. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy komparatorów w strukturach CP LD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach. Przy syntezie komparatorów wystarczy zrealizować tylko dwie funkcje G i E. Funkcja L zawsze może być określona na podstawie dwóch pierwszych na podstawie zależności: (1) Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy. W ostatnich latach zwraca się dużą uwagę na projektowanie komp... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS (Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)
Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Zastosowanie pseudolosowych generatorów chaotycznych do transmisji danych wrażliwych z użyciem magistral szeregowych (PAWEŁ DĄBAL, RYSZARD PEŁKA)
Obecnie dużym zainteresowaniem cieszą się systemy telemetryczne umożliwiające integrację wielu rodzajów czujników oraz aktuatorów (urządzeń wykonawczych). Rozbudowa systemu pociąga za sobą konieczność użycia niezawodnych sposobów komunikacji pomiędzy elementami systemu. Podzielić możemy je na dwie zasadnicze grupy: przewodowe (np. I2C, SPI , CAN) oraz bezprzewodowe (np. ZigBee, Wi-Fi). W przypadku transmisji bezprzewodowych niemal standardem jest stosowanie mechanizmów mających zapewnić poufność i autentyczność przesyłanej informacji. Transmisja przewodowa z racji ograniczonego dostępu do medium transmisyjnego do tej pory nie przyciągała uwagi badaczy. W przypadku kiedy przesyłane dane są wrażliwe, ważnym aspektem staje się zapewnienie możliwości zabezpieczenia ich z użyciem znanych technik kryptograficznych. Ma to szczególne znaczenie w przypadku aplikacji mających zapewnić bezpieczeństwo człowiekowi posługujących się nimi np.: aparaturą medyczną, w motoryzacji (ABS, ESP, ACC ) i kontroli procesów produkcyjnych [1, 2]. Niekiedy kiedy jeden z komponentów systemu (np. czujnik biomedyczny) może być zastąpiony komponentem nie spełniającym specyficznych wymagań systemu (np. precyzji, rozdzielczości, obsługi procedur diagnostycznych, itp.). Innym rodzajem zagrożenia jest narażenie na modyfikację lub całkowite uniemożliwienie komunikacji oraz wywołanie niestabilności systemu lub jego całkowitej awarii. Zastosowanie szyfrowania i uwierzytelnienia zapewnia podwyższenie bezpieczeństwa i ułatwia szybsze wykrywanie ataku na magistralę. W celu zapewnienia poufności danych można zastosować powszechnie znane algorytmy kryptograficzne z symetrycznym kluczem (np. DES, AES). Za integralność danych odpowiadają funkcje skrótów (np. SHA), natomiast za uwierzytelnienie algorytmy z kluczem publicznym (np. RSA). Implementacja ich w urządzeniach mających komunikować się za pośrednictwem prostych magistral szeregowych najczęściej odbywa się progr... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Człowiek i organizacje w wirtualnym środowisku informacji (Zbigniew Kierzkowski)
Procesy przemian cywilizacyjnych w kształtującym się społeczeństwie informacyjnym zmierzają w kierunku tworzenia różnorodnych struktur wirtualnej organizacji działań (WOD). Problematykę WOD, jako nowy przedmiot badań naukowych i realizacji zadań badawczo-rozwojowych i edukacyjnych, podjęto w Polsce przed 20 laty. Od początku badania te są prowadzone przy współpracy wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych, konferencji krajowych i międzynarodowych. Problematyka WOD od początku wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP). Problematyka wirtualnej organizacji działań (WOD), nowy przedmiot badań naukowych i realizacji zadań badawczorozwojowych, podjęto w Polsce w latach 1994/1996. Są one przedmiotem współdziałania wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych. Od początku tematyka WOD wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP) i jest ściśle powiązana z pracami prowadzonymi na forum międzynarodowym przez Komitet Danych dla Nauki i Technologii [2] (CODATA - Committee on Data for Science and Technology of the International Council for Science). Dodatkowo od 2003 roku problematyka WOD prezentowana jest podczas krajowych Konferencji Okrągłego Stołu (KOS): Polska w drodze do społeczeństwa informacyjnego [3], które organizowane są corocznie, jako debata środowisk polityki, gospodarki i nauki przez Zarząd Główny SEP - Stowarzyszenie Elektryków Polskich, który jest głównym koordynatorem w Polsce obchodów ŚDSI - Światowego Dnia Społeczeństwa Informacyjnego (17 maja). Badania początkowe - do roku 2003/2004 - w obszarach tematycznych WOD poświęcone są analizie procesów przemian strukturalnych społeczeństwa informacyjnego oraz poszukiwaniu głównych czynników kształtowania społecz... więcej»

Wielokrotny wybór czyli rozważania o pewnych pytaniach testowych (Wojciech Przyłuski )
Wśród pytań zamkniętych (czyli takich, w których testowany wybiera odpowiedzi spośród pewnej liczby konkretnie sformułowanych propozycji) najczęściej spotykanymi pytaniami - obok pytań polegających na wskazaniu jednej poprawnej odpowiedzi - są tzw. pytania wielokrotnego wyboru. Słowo "wielokrotnego" jest przy tym różnie interpretowane przez autorów publikacji związanych z tematyką testowania; może oznaczać zarówno liczbę proponowanych do wyboru opcji, jak i liczbę możliwych prawidłowych odpowiedzi. Każdy chyba odpowiadał kiedyś na pytania polegające na wyborze właściwej odpowiedzi. Polega to na tym, że dostaje się kilka, rzadziej kilkanaście możliwości do wyboru i należy zaznaczyć jedną lub kilka odpowiedzi uznanych za prawidłowe. Możliwość zaznaczenia więcej niż jednej odpowiedzi zależy od treści polecenia zawartej w pytaniu lub od formy graficznej pytania, która sugeruje bądź wręcz determinuje (testy komputerowe) zasady udzielania odpowiedzi. Spośród kilku polskich i angielskich nazw proponowanych w literaturze dla pytań wyboru najtrafniejsze wydają się określenia z pracy Marka Hyli [1]. Wymienia on dwa typy pytań wyboru: 1. pytania jednokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Single Answer, MCSA), 2. pytania wielokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Multiple Answer, MCMA). Dopiero te dwie polskie i odpowiadające im angielskie nazwy w pełni oddają sens jaki chcemy przypisywać tym typom pytań. W pierwszej chwili różnica pomiędzy tymi typami pytań wydaje się niewielka. Okazuje się jednak, że wielość możliwych do wskazania odpowiedzi stwarza w sferze weryfikacji wiedzy zupełnie nowe, nieporównywalne z pytaniami jednokrotnego wyboru, możliwości, rodząc jednocześnie wiele dodatkowych problemów. Tymi właśnie problemami chcemy się zająć, przy czym używać będziemy sformułowań: "pytanie wielokrotnego wyboru" i "wielokrotny wybór" w sensie drugiej z podanych wyżej definicji. Test t... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Zastosowanie operatora krzyżowania równomiernego w przypadku algorytmów ewolucyjnych z krzyżowaniem wieloosobniczym (Zbigniew Handzel, Mirosław Gajer)
Różnorodne techniki obliczeniowe, określane wspólnie mianem systemów ewolucyjnych cieszą się obecnie niesłabnącym zainteresowaniem, a obszary ich potencjalnych zastosowań nieustannie się powiększają, obejmując między innymi zagadnienia optymalizacji wielokryterialnej o dynamicznie zmieniających się uwarunkowaniach [1]. Do tego rodzaju technik obliczeniowych zaliczane są, między innymi, algorytmy ewolucyjne, algorytmy genetyczne, programowanie ewolucyjne, programowanie genetyczne, a także tzw. algorytmy rojowe, naśladujące zjawiska zachodzące w obrębie zbiorowości owadów społecznych, takich jak na przykład mrówki i pszczoły [2]. Zasady działania wymienionych technik obliczeniowych sprowadzają się do cyklicznego wykonywania odpowiednich operacji genetycznych, do których zalicza się przede wszystkim wzajemne krzyżowanie osobników, mutację ich materiału genetycznego oraz selekcję osobników, które będą mogły przejść do kolejnego pokolenia [3]. Tematyka niniejszego artykułu została poświęcona genetycznemu operatorowi krzyżowania, który realizowany jest w wersji tzw. krzyżowania wieloosobniczego. Jak sama nazwa wskazuje krzyżowanie wieloosobnicze sprowadza się do jednoczesnego zastosowania operatora krzyżowania do więcej niż dwóch osobników. Tego rodzaju proces nie ma swej bezpośredniej analogii w świecie przyrody [4]. Zastanawiając się nad przyczynami takiego stanu rzeczy, jako na główny powód należy wskazać prawdopodobnie na ewentualne trudności praktycznej realizacji w naturalnych warunkach procesu jednoczesnej wymiany materiału genetycznego pomiędzy trzema, a tym bardziej pomiędzy większą liczbą osobników. Prawdopodobnie tego rodzaju proces okazałby się być "zbyt kosztowny" w praktycznej realizacji, aby przyroda była skłonna go wypróbować podczas trwającej ponad miliard lat ewolucji życia na Ziemi. Jednak w przypadku sztucznych system... więcej»

Wpływ obecności farm wiatrowych na działanie radaru pasywnego (Janusz S. Kulpa, Marcin K. Bączyk, Krzysztof Kulpa)
W ostatnich latach można zaobserwować duży wzrost liczby turbin wiatrowych w Polsce [14]. Spowodowane jest to w dużej mierze presją Unii Europejskiej na rozwój odnawialnych źródeł energii. Należy jednak mieć na uwadze, iż budowa farm wiatrowych może niekorzystnie wpłynąć na skuteczność systemów radiolokacyjnych, zarówno aktywnych jak i pasywnych. Turbina wiatrowa jest obiektem w skład którego wchodzą silnie odbijające części o szerokim spektrum prędkości. W minionych latach powstało wiele analiz skupiających się na oddziaływaniu farm wiatrowych na radary [2, 9, 10]. Głównie dotyczą one monostatycznych radarów aktywnych. Powstały też algorytmy, które pozwalają na usunięcie lub ograniczenie szkodliwych efektów wywoływanych przez obecność farmy wiatrowej w obszarze pracy radaru [11], [13]. Literatura obejmująca analizy wpływu parków wiatrowych na radary multistatyczne, w tym na radary pasywne, jest uboga. Większość sposobów używanych w radarach aktywnych nie może być bezpośrednio zastosowana w radiolokacji pasywnej. Radar pasywny PCL (ang. Passive Coherent Location) to radar, który nie emituje własnych fal elektromagnetycznych - wykorzystuje sygnały już obecne w przestrzeni, takie jak radio FM, naziemna telewizja cyfrowa DVB-T, stacje sieci komórkowych GSM, bądź internetu bezprzewodowego [1, 5, 7, 8]. Radar taki rejestruje sygnał z nadajnika, tzw. sygnał referencyjny xref , oraz sygnał obserwacyjny xs zawierający odbite od występujących w obserwowanej scenie obiektów kopie sygnału nadawanego. Detekcja następuje wskutek korelacji sygnału odebranego z obserwowanej sceny z sygnałem referencyjnym za pomocą dwuwymiarowej funkcji niejednoznaczności [3]: (1) gdzie &#964; jest przesunięciem czasowym, fd częstotliwościowym sygnału xref, a* jest operatorem zespolonego sprzężenia. Maksima funkcji niejednoznaczności odpowiadają przesunięciom czasowym i częstotliwościowym obserwowanych obiektów, czyli określają ich odległość i prędkość bi... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Realization of Digital Audio Signal Interpolator Using Linear-Phase IIR Filter (Krzysztof Piotr Sozański)
In a digital class D power amplifier, depicted in Fig. 1, the output pulse power amplifier works as a one-bit D/A converter. We assume that the amplifier input signal is in the CD player standard, i.e., is sampled with rate fs = 44.1 ksamples/s. Thus, its approximate frequency band covers 0...fb = 0...20 kHz. In order to increase the resolution of the amplifier, noise shaping and oversampling techniques are used [9]. The chosen signal oversampling ratio R = 8 is a compromise between the power MOSFET switching losses (for the minimization of which R should be also minimized) and the selectivity of the output passive low-pass smoothing filter. The chosen switching frequency is R &#8901; fs=352.8 kHz. During the signal interpolation process, the signal dynamic ratio can be decreased by adding mirror signals to the input signal. For high quality audio signals the required dynamic range is near 90 dB. The aim of this paper is to present a new audio signal interpolator using LF IIR filter. The interpolator is designed for Class-D audio power amplifier. Signal Interpolator A signal interpolator made up of an upsampler and an anti-imaging low-pass filter for integer valued conversion factor R is depicted in Fig. 2. The low-pass filter H(e j&#969;Ts/R), also called the interpolation filter, removes the R-1 unwanted images in the spectra of upsampled signal w(kTs/R). Fig. 1. Block diagram of class D digital audio power amplifier Rys. 1. Schemat blokowy wzmacniacza mocy klasy D Fig. 2. Signal interpolator Rys. 2. Interpolator sygnałów DPWM Noise Shaping Circuit Signal Interpolator x(nTs) fs=44.1 kHz +UZ L1 L2 C1 C2 C3 ZL Gate Drivers 8fs=352.8 kHz fc=352.8 kHz H(ejTs/R) x(nTs) x R y(kTs/R) fs Rfs R w(kTs/R) h(kTs/R) El ektronika 4/2014 47 An illustration of interpolating process for R = 3 is depicted in Fig. 3. After the upsampling process, the out-of-band signal (unwanted images) is a source of interference ... więcej»

Time-delay of arrival estimation from voice signal (Damian Cetnarowicz, Adam Dąbrowski)
This article concerns the issue of the sound source localization in order to automate video surveillance or improve the quality of voice recording. The sounds in general, are a rich medium of convenient communication. The sounds in organized human activities allow for spatial orientation. The case of the voice message is associated with a variety of techniques that involve the recording and transmission of voice, in order to transmit it to the recipient. In this way the voice message can be listened to in a distant location or can be played back at a later time. It is particularly important that the intelligibility of the message conveyed by voice should be high. Speech intelligibility can be limited by properties of equipment, recording or playback conditions. Current technological development provides a variety of solutions to acquire, compress and transmit the speech signals with almost no noticeable reduction in quality, which is confirmed by a subjective assessment. The speech intelligibility very often is reduced by disturbing sounds including traffic noise and other speaking persons. In literature it is called the &#8220;cocktail party" problem. It is difficult to cancel the disturbing sounds by filtering in frequency domain because the spectrum of the disturbing sounds overlaps with the spectrum of voice. Using statistical independence the signals can be separated by blind source separation (BSS) methods. Comprehensive review of BSS methods can be found in the book [1]. The authors of this article have already studied the properties of blind separation [2] and its usefulness in applications for hearing aids [3] or for automatic speech recognition in human-machine interfaces [4] [5] [6]. The effective algorithms for independent component analysis (IC A) were considered in [7]. The directional filtering also was investigated for application of speech intelligibility improvement [8]. It was noticed, that the performance o... więcej»

Adaptive acoustic crosstalk cancellation in mobile computer device (Kuba Łopatka, Andrzej Czyżewski)
Recently one of the main paradigms in audio engineering is enhancement of spatial perception of sound. In that field, Virtual Acoustic Space (VAS) technique emerges. It is based on creating an illusion of 3D audio experience by exploiting the physical foundations of spatial hearing. The well-known Head- Related Transfer Functions (HRT Fs) are often used to that end [1]. While the creation of virtual sound sources is relatively easy to achieve using headphones, obtaining a VAS using loudspeakers remains a challenge. The task is particularly difficult in mobile conditions, while using a mobile computer as a playback device. We focus on investigating the practical possibility of creating a virtual sound experience using a typical mobile computer. The examined method relies on the acoustic crosstalk cancellation algorithm. The acoustic crosstalk cancellation algorithm (often denoted XTC ) is a known tool used to eliminate the signals transmitted from the left loudspeaker to the right ear (and vice versa) in freefield listening. The goal is to enable clear transmission of signals to the ipsilateral ears, thus providing a similar auditory experience to headphone listening. It is commonly referred to as binaural audio through loudspeakers (BAL) [2]. The benefit of such an effect is advanced control of the stereo image. Ideally, spatial cues encoded in HRT Fs can be used to create virtual sound sources outside the loudspeaker area. This leads to widening of the stereo image and an enhanced audio experience. Meanwhile, the BAL effect achieved with XTC algorithm is not perfect. The cancellation of signals transmitted to the contralateral ears is achieved only to a limited area - the sweet spot. Outside the sweet spot the crosstalk cancellation fails and perceived sound is degraded due to spectral coloration. Due to the physical constraints of the algorithm even a slight displacement of the head can deteriorate the XTC efficiency. In ou... więcej»

Zagadnienia związane z przekładem zaimków osobowych w systemie tłumaczenia komputerowego typu Human-Aided Machine Translation (Zbigniew Handzel, Mirosław Gajer, Joanna Dybiec-Gajer )
Przekład komputerowy już od dobrych kilkudziesięciu lat pozostaje w kręgu zainteresowań interdyscyplinarnych zespołów badawczych złożonych z naukowców reprezentujących różne dziedziny wiedzy, poczynając od teoretyków informacji, poprzez specjalistów od algorytmów, programistów, a kończąc na językoznawcach, przekładoznawcach i filologach. Niestety, budowa systemu komputerowego przekładu, który byłby w stanie wyeliminować całkowicie człowieka i tym samym sprawić, że zawód tłumacza stanie się w przyszłości zbędny, wciąż pozostaje swego rodzaju niedoścignionym ideałem [1]. Obecnie systemy komputerowego przekładu są realizowane przede wszystkim jako systemy całkowicie automatyczne, tzn. takie, na wejście których użytkownik zadaje gotowy tekst zapisany w języku wyjściowym, a na ich wyjściu oczekuje pojawienia się przekładu tego tekstu na wybrany język docelowy. Tego rodzaju w pełni automatyczny przekład jest wykonywany przez komputer najczęściej z wykorzystaniem metod regułowych bądź statystycznych, przy czym znane są także rozwiązania hybrydowe, stanowiące różnego rodzaju połączenia wybranych metod [2]. Innym, w opinii autorów, niezwykle obiecującym kierunkiem badań w dziedzinie komputerowego przekładu jest rozwijanie systemów komputerowego przekładu wspomaganych przez człowieka, które w angielskojęzycznej literaturze przedmiotu określane są terminem Human-Aided Machine Translation. W przypadku tego rodzaju rozwiązań użytkownik systemu przez cały czas jego działania w sposób aktywny uczestniczy w procesie przekładu, rozwikłując wszelkiego typu wieloznaczności języka naturalnego (leksykalne i składniowe), które stanowią podstawową przeszkodę stojącą na drodze do budowy w pełni użytecznych systemów komputerowego przekładu [3]. Przedmiotem niniejszego artykułu jest rozwijany obecnie przez autorów system komputerowego przekładu typu Human-Aided Machine Translation. System ten pomyślany jest jako system wielojęzyczny, który jest otw... więcej»

Układy do kontroli połączeń elektrod z pacjentem w badaniach elektrodiagnostycznych (PIOTR KARDYŚ, MAREK PORTALSKI)
W jednym z artykułów prezentowanych na łamach "Elektroniki" [7] w cyklu poświęconym bezprzewodowym systemom telemetrycznym, przedstawiliśmy moduł pomiarowy EE G/EKG przeznaczony do badań zdalnych. Moduł ten, podobnie jak inne urządzenia diagnostyczne korzystające z elektrod pomiarowych przylepianych bądź przykładanych do ciała osoby badanej, wymaga utrzymania rezystancji przejściowych, a ściślej impedancji na styku elektroda/ elektrody-tkanka w pewnych z góry ustalonych granicach, celem zapewnienia prawidłowej pracy urządzenia i uzyskania niezafałszowanych wyników pomiaru. W przypadku badań elektroencefalograficznych (EE G), rezystancje przejściowe elektrod przykładanych do głowy pacjenta nie powinny przekraczać 5 k&#937; [10], w przeciwnym razie do obwodów wejściowych wzmacniacza dotarłyby zakłócenia indukowane w otoczeniu pacjenta (przede wszystkim z sieci energetycznej), jak również drastycznie wzrósłby poziom szumów. Stosuje się zatem specjalne pasty przewodzące, poprawiające kontakt elektrod ze skórą. W badaniach elektrokardiograficznych (EKG) dopuszcza się nieco większe wartości rezystancji - do 10 k&#937; w pomiarach metodą Holtera [1]. Istnieją jednak badania, w których rezystancje przejściowe elektrod przyjmują znacznie większe wartości. Ciekawym przykładem może być badanie za pomocą wariografu, powszechnie, choć niezupełnie słusznie nazywanego "wykrywaczem kłamstw" [6], w którym na palce jednej ręki (zwykle wskazujący i środkowy) zakłada się elektrody suche, pozbawione pasty przewodzącej czy żelu, gdyż w tym wypadku potliwość ciała ma kluczowe dla wyników znaczenie. Wprowadzenie substancji przewodzącej między powierzchnię czynną elektrody a skórę uniemożliwiłoby monitorowanie tego parametru. W takich badaniach rezystancje przejściowe elektrod sięgają dziesiątek, a nawet setek kiloomów, w zależności od wilgotności naskórka i pośrednio od stanu emocjonalnego osoby badanej oraz jej reakcji (ang. GSR, galvanic skin res... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Przestrzenne charakterystyki wiązek promieniowania emitowanego przez lasery półprzewodnikowe (BOHDAN MROZIEWICZ, EMILIA PRUSZYŃSKA-KARBOWNIK, KAZIMIERZ REGIŃSKI)
Przestrzenny rozkład natężenia pola w wiązce emitowanej przez laser jest z punktu widzenia jego użytkownika jedną z najważniejszych, obok mocy wyjściowej i długości fali, charakterystyką tego urządzenia. Kształt i wewnętrzna struktura polowa emitowanej wiązki decyduje bowiem o możliwości jej dalszej obróbki optycznej i przystosowania jej do wymaganych celów, np. do uzyskania możliwie wysokiego natężenia napromienienia (W/cm2), lub zogniskowania wiązki na możliwie małym obszarze. Wymagania takie stawiane są w odniesieniu do układów optycznych stosowanych w telekomunikacji światłowodowej czy też w otwartej przestrzeni, a także np. w urządzeniach do spektroskopii. Szczególnie istotne okazały się one w przypadku budowanych ostatnio urządzeń laserowych do cięcia metali lub innych materiałów z wykorzystaniem zjawiska ablacji przy jednoczesnym uniknięciu odparowywania naświetlanego materiału w wyniku jego nagrzewania. Te ostatnie zastosowania nie dotyczą wprawdzie jak dotąd kwantowych laserów kaskadowych, ale okazały się już szczególnie ważne w odniesieniu do laserów diodowych. Mierniki rozkładu natężenia pola w wiązce laserowej zwane potocznie profilometrami (ang. profilers), dedykowane do pomiarów wiązek generowanych przez lasery różnych rodzajów, są obecnie produkowane przez wiele firm i w zasadzie jako takie przestały być przedmiotem specjalnych badań. Stosowane w tych miernikach metody pomiaru rozkładu natężenia pola można ogólnie podzielić na dwie grupy: - metody oparte na wykorzystaniu matryc detektorowych, - metody oparte na mechanicznym skanowaniu i pomiarze pola w przekroju poprzecznym wiązki za pomocą pojedynczego detektora. Te ostatnie dzielą się na 3 podgrupy a mianowicie: skanowanie szczelinowe, skanowanie krawędziowe (tzw. knife-edge) oraz skanowanie dwuwymiarowe detektorem o małej aperturze. Każda z tych technik ma swoje zalety i wady zależnie od parametrów mierzonej wiązki laserowej (patrz ref. [1-3]). W szczególno... więcej»

Kształtowanie szumu w fonicznych przetwornikach a/c i c/a sigma-delta (MARCIN LEWANDOWSKI, ZBIGNIEW KULKA)
Szczególnie istotną rolę w systemach zapisu i odtwarzania dźwięku, określanych jako systemy hi-fi (high-fidelity), odgrywają wielobitowe (16-24-bitowe) przetworniki analogowo-cyfrowe (a/c) i cyfrowo-analogowe (c/a), pracujące z częstotliwościami próbkowania do 96/192 kHz, tworzące odrębną klasę przetworników fonicznych (audio converters) [1]. Przetworniki a/c i c/a działające z wykorzystaniem modulacji impulsowo-kodowej (PCM - pulse-code modulation), zwane powszechnie konwencjonalnymi przetwornikami PCM są stosowane w cyfrowej technice fonicznej od początku jej rozwoju. Przetwarzanie analogowego sygnału fonicznego na sygnał cyfrowy metodą kodowania PCM polega na wykonaniu trzech zasadniczych operacji: próbkowania równomiernego (ze stałym okresem próbkowania), wielobitowego kwantowania liniowego (ze stałym krokiem kwantowania) i kodowania. Wynikiem przetwarzania jest cyfrowy sygnał foniczny w formacie PCM, charakteryzowany przez częstotliwość próbkowania fS i rozdzielczość słów wyjściowych N w bitach. Przetworniki PCM mogą pracować z częstotliwością próbkowania (szybkością) Nyquist&#8217;a fN (Nyquist-rate PCM converters), tj. fS &#8805; fN = 2&#183;fm, gdzie fm jest pasmem analogowego sygnału wejściowego. Częściej jednak pracują z nadpróbkowaniem (oversampled PCM converters) i wówczas częstotliwość próbkowania fS = L&#183;fN, gdzie L jest współczynnikiem nadpróbkowania (oversampling ratio) równym fS /(2&#183;fm ), którego wartości mogą wynosić 2, 4, 8 lub 16. Choć nadpróbkowanie umożliwia zwiększenie stosunku sygnału do szumu SNR (signal-to-noise ratio) oraz uproszczenie konstrukcji analogowych filtrów dolnoprzepustowych (FDP) na wejściu przetwornika a/c (ochronnego, antyaliasingowego) i wyjściu przetwornika c/a (rekonstruującego, antylustrzanego), to jednak pociąga za sobą konieczność użycia cyfrowego filtru decymacyjnego na wyjściu przetwornika a/c i cyfrowego filtru interpolacyjnego na wejściu przetwornika c/a. Foniczne p... więcej»

Estymacja przepływności bitowej ramek typu P w kodowaniu wideo (Michał Wieczorek, Grzegorz Pastuszak)
Nowoczesne systemy kodowania wideo cechują się wysoką sprawnością działania. Dzięki zastosowaniu złożonych algorytmów, pozwalają uzyskać stosunkowo niską przepływność bitową wyjściowych strumieni wideo przy zachowaniu ich wysokich jakości. Jednocześnie nośniki danych jak i kanały transmisyjne cechują się coraz większą pojemnością i przepływnością. Istotnym problemem jest efektywne wykorzystanie dostępnego pasma transmisyjnego oraz pojemności pamięci a nie tylko minimalizacja rozmiaru czy przepływności materiału wideo. Dlatego też duży nacisk kładziony jest obecnie na sprawne algorytmy kontroli stopnia kompresji sekwencji wideo. Ich podstawowym zadaniem jest taki dobór parametrów kodowania, aby wyjściowy strumień danych efektywnie wykorzystywał dostępne zasoby transmisyjne. W najnowszych pozycjach literaturowych prezentowanych jest kilka bardzo dobrych algorytmów kontroli stopnia kompresji. Większość z nich nie nadają się jednak do zastosowania w koderach pracujących w czasie rzeczywistym. Publikacji opisujących rozwiązania umożliwiające efektywną kontrolę stopnia kompresji w systemach kodowania wideo pracujących z małym opóźnieniem jest niewiele. Jakość tych, które można znaleźć, pozostawia wiele do życzenia. Przykładowo w [1] przedstawiono sprzętowe rozwiązanie dość efektywne z punktu widzenia stabilności przepływności bitowej. Pominięto jednak jeden z czynników równania wyznaczania wartości parametru kwantyzacji QP (ang. quantization parameter), przez co nie jest możliwa implementacja opisanego algorytmu. Zagadnienie efektywnej kontroli stopnia kompresji w czasie rzeczywistym jest zatem wciąż otwarte na nowe rozwiązania. Ogólny schemat działania algorytmów kontroli stopnia kompresji Celem algorytmów kontroli stopnia kompresji jest dobór parametrów kodowania w taki sposób, aby sprostać narzuconym ograniczeniom. Te mogą dotyczyć określonej jakości bądź przepływności bitowej kodowanej sekwencji wideo. Pierwszym krokiem każd... więcej»

Krótki przegląd technik biometrycznych do rozpoznawania osób (Mirosława Plucińska )
Biometria zajmuje się pomiarem i selekcją indywidualnych, fizjologicznych lub behawiorystycznych cech organizmów żywych oraz udoskonalaniem metod pomiaru i wyboru najbardziej niepowtarzalnych osobniczo parametrów. Obecnie istnieje na rynku szereg technik biometrycznych wykorzystywanych w systemach kontroli dostępu i uwierzytelniania osób. Techniki te są ciągle rozwijane i ulepszane, a także pojawiają też nowe techniki. Najnowszym trendem są multibiometrie, czyli łączenie kilku technik biometrycznych, co zwiększa pewność prawidłowego rozpoznawania osoby i podwyższa bezpieczeństwo systemów je wykorzystujących. Prace nad wykorzystaniem biometrii do celów rozpoznawania osób koncentrują się głównie na łatwo dostępnych cechach fizycznych. Wstępnie techniki biometryczne przydatne do uwierzytelniania osób można podzielić na trzy podstawowe grupy: 1. Techniki biometryczne znane od dawna: - rozpoznawanie rysów twarzy, - rozpoznawanie odcisku palca, - rozpoznawanie kształtu dłoni, - rozpoznawanie siatkówki oka, - rozpoznawanie tęczówki oka, - rozpoznawanie głosu. 2. Techniki biometryczne obecnie preferowane: - rozpoznawanie naczyń krwionośnych palca, - rozpoznawanie naczyń krwionośnych dłoni. 3. Techniki biometryczne przyszłości: - rozpoznawanie głosu (nowej generacji), - multibiometrie, w tym rozpoznawanie odcisku palca + naczyń krwionośnych palca. Interesujące są również techniki rozpoznawania cech behawioralnych takich, jak: - sposób pisania odręcznego (prędkość, nacisk, kąt), - sposób uderzania w klawisze klawiatury, - sposób mówienia (ruch ust), mimika. Prowadzone są także badania nad uwierzytelniania osób za pomocą rozpoznawania np.: geometrii uszu, odcisku kostek dłoni, chodu danego człowieka. Opis technik biometrycznych Rozpoznawanie rysów twarzy Rozpoznawanie geometrii twarzy jest wygodnym środkiem rozpoznawania - "swoją twarz masz zawsze ze sobą". Użytkownik spogląda w kamerę, która rejestruje obraz. Po obróbce i mat... więcej»

Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański&#8201;)
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros&#8201;)
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Zastosowanie metody najmniejszych kwadratów do estymacji prędkości nosiciela radaru z syntetyczną aperturą (Piotr Serafin, Adam Kawalec, Czesław Leśnik, Marcin Szugajew)
Zobrazowania uzyskiwane dzięki technice syntezy apertury pozwalają na prowadzenie obserwacji terenu z rozróżnialnością zbliżoną do fotograficznej, jednak nie są one ograniczone warunkami oświetleniowymi czy atmosferycznymi panującymi w rejonie zainteresowania. W systemach z syntetyczną aperturą radar instalowany jest zwykle na ruchomej platformie, najczęściej na statku powietrznym. W celu wprowadzenia podstawowych pojęć rozważony zostanie system SAR w konfiguracji lotniczego systemu obserwacji bocznej [1]. Geometria takiego systemu przedstawiona została na rys. 1. Przyjęto założenie, że statek powietrzny będący nosicielem radaru, przemieszcza się ze stałą prędkością vR, na stałej wysokości hR po linii prostej. Listek główny charakterystyki kierunkowej anteny radaru skierowany jest prostopadle do trajektorii ruchu nosiciela i opromieniowuje wycinek terenu. Radar wysyła sygnały sondujące o częstotliwości nośnej f0 z częstotliwością powtarzania Fp i odbiera sygnały echa odbite od obiektów znajdujących się w opromieniowanej przestrzeni. Jeżeli postać analityczna sygnału nadawanego zostanie przedstawiona w postaci następującej: (1) gdzie A(t) jest zespoloną amplitudą sygnału, a f0 jest częstotliwością nośną sygnału sondującego, to odebrany sygnał echa od obiektu punktowego można zapisać następująco: (2) gdzie tT jest czasem opóźnienia sygnału echa w stosunku do momentu wysłania sygnału sondującego i wynosi: (3) natomiast RT jest odległością pomiędzy radarem i obserwowanym obiektem, a c jest prędkością propagacji fali elektromagnetycznej w przestrzeni. W odbiorniku radaru sygnały echa poddawane są konwersji do pasma podstawowego, zatem uwzględniając wyrażenie (3) postać sygnału echa można zapisać jako: (4) W radarze z syntetyczną aperturą odległość pomiędzy obserwowanym obiektem a radarem zmienia się ze względu na ich wzajemny ruch. Jeżeli przyjęty zostanie układ współrzędnych wykorzystany na rys. 1, to funkcję zmiany odle... więcej»

Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Rozporządzenie eIDAS - na pograniczu technologii i prawa (Daniel Wachnik )
W wyniku prac regulujących obszar podpisu elektronicznego została wydana Dyrektywa 1999/93/WE dotycząca wspólnotowych ram podpisu elektronicznego [1]. W trakcie 10-ciu lat obowiązywania Dyrektywy nie odnotowano oczekiwanego nasycenia rynku podpisów elektronicznych. W roku 2008 Komisja Europejska zaadoptowała plan działań w zakresie e-podpisu i e-identyfikacji, który zaowocował między innymi wytworzeniem raportów CRO - BIE S [2]. Raporty CRO BIE S stanowiły istotny wkład przy określeniu zakresu mandatu standaryzacyjnego M/460, wydanego w 2009 roku przez Komisję Europejską. Mandat ten miał na celu uporządkowanie standardów związanych z szeroko pojętymi usługami zaufania.Początkowo, rozważano zastosowano możliwość nowelizacji Dyrektywy 1999/93/EC , jednak w na podstawie analiz postanowiono, że najkorzystniejszym aktem prawnym, z punktu widzenia harmonizacji usług jest Rozporządzenie unijne. Draft rozporządzenia został opublikowany przez Komisję Europejską w dniu 04.06.2012 roku [3], a sam fakt publikacji został po raz pierwszy ogłoszony publicznie w Polsce, w trakcie konferencji EFPE . Warto nadmienić, że Rozporządzenie Unii Europejskiej jest aktem prawnym zasadniczo różniącym się od Dyrektywy. O ile Dyrektywa jest implementowana przez kraje członkowskie w prawie krajowym, o tyle Rozporządzenie nie pozostawia tego rodzaju swobody. Rozporządzenie jest stosowane bezpośrednio. Zastosowanie tego rodzaju aktu oznacza z jednej strony brak rozbieżności na poziomie krajów członkowskich, ale oznacza także, że państwa członkowskie nie mają możliwości korygowania tych przepisów, które z ich punk-tu widzenia są uciążliwe. Przykładowo, jeśli zapisy rozporządzenia będą wykluczać możliwość zastosowania w kontaktach z administracją publiczną określonego rodzaju mechanizmu, nie będzie można stosować tego mechanizmu, bez względu na fakt jakie koszty z tego powodu będzie musiało poni... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Światłowodowe czujniki wielkości chemicznych, środowiskowych i biologicznych - EWOFS2013 (Ryszard S. Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych (OFS) kilka lat temu dała początek cyklicznym Europejskim Warsztatom Czujników Światłowodowych (EWOFS). Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe, jak np. konferencja Photon we Francji. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich Zastosowania", organizowanych naprzemiennie przez ośrodki technologiczne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbędzie się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014. Pierwsza krajowa konferencja z tego cyklu odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. z niezapomnianym uczestnictwem profesorów J. Groszkowskiego, A. Waksmundzkiego, A. Smolińskiego, B. Paszkowskiego, Z. Szpiglera. Obecnie w krajowych konferencjach Światłowody i ich Zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z kraju oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały lu... więcej»

Impedance matching between antenna and chip in RFID transponder of UHF Band (Piotr Jankowski-Mihułowicz, Wojciech Lichoń, Grzegorz Pitera, Mariusz Węglarski)
Radiative coupling radio frequency identification (RFID) systems of the UHF band (860 to 960 MHz) [1] work in the range of far field where emitted wave (of frequency f0) is not only a data carrier but first of all an energy source (of power density S). The electromagnetic field is generated by a read/write device (RWD). The RWD antenna together with transponder antennas comprise a radio communication arrangement which has to be wave and impedance matched. It should be emphasised that the classical impedance matching of a transmitter and receiver is established only between the RWD output and connected antenna (50 &#937;). If a transponder appears in the interrogation zone (IZ), it can be supplied with energy and the data can be exchanged (Fig. 1a) but the backscattering modulation is used to send answers back to the RWD. In the transponder backscattering response the emitted wave is only partially reflected towards the RWD because of switching load impedance of the internal chip - this process is extremely power-saving but also conveyed energy has limited amount. The minimal power PTmin (chip sensitivity) is required for activating communication process (Fig. 1b). Appropriate communication mechanisms are defined by ISO protocols, e.g. ISO/IEC 18000-6 (EPC Class 1 Gen 2), 18000-4 for UHF band. They determine the interrogation zone which is a basic application parameter of RFID systems. The IZ is a space zone around the RWD antenna which boundaries are dependent first of all on the transponder antenna construction and impedance matching to the chip input and can be estimated by using e.g. Monte Carlo method [2]. So, the specific parameters of the chip and target application have to be... więcej»

Recycling of electronic waste - new approach (Marcin Szwech, Michał Kotarba, Małgorzata Jakubowska )
Currently the need for more efficient recycling of electronic waste becomes more apparent. One of the main factors for this is the rapid technology development in last few decades. New generation of electronic devices became more rapid than ever before thus shortening the life span of electronic parts from 4-6 years at the end of XX century to 2 years in first decade of XXI century. If this rate would continue to increase, within next few decades new generation of electronics will be release to market every few months. Economical and social aspects This current situation already significantly increased generation of electronic waste in turn raising new environmental issues. One of those issues is the placement of the waste. In the light of current EU legislation, directive 1999/31/EC, that states&#8220;to prevent or reduce as far as possible negative effects on the environment, in particular the pollution of surface water, groundwater, soil and air, and on the global environment, including the greenhouse effect, as well as any resulting risk to human health, from the landfilling of waste, during the whole life-cycle of the landfill"... więcej»

Ink-jet printed dielectric layers containing BaTiO3 nanopowders (Marcin Słoma, Karol Lenkiewicz, Grzegorz Wróblewski, Anna Młożniak&#8201;, Małgorzata Jakubowska)
Printed electronics is a new method for making electronics applications, but with growing industry and market is becoming more valuable year by year. In new technologies requiring improved precision it is important to obtain good repeatability and reliability, especially when dosing small amount of materials. For that reason ink-jet printing is one of the most most popular printing technique for precise printed electronics. It is an appropriate method for low cost application and small quantity production in industry or for research and laboratory tests. Ink-jet is a non-contact additive method and does not require stencil, mesh or rotating rollers, ink goes directly from dispenser head to substrate. For that reason loss of material is minimized. Small diameter of nozzle allows to obtain very thin and narrow lines. The smallest line width is 14 - 25 &#956;m [1]. Better efficiency was observed for polymeric photovoltaic device manufactured by ink-jet printing than the same layer thickness made by spin-coating. The reason was faster ink drying in ink-jet method [2]. Non-contact method allows to make 3D-printing such as abluminal coating for stents [3]. Ink-jet printing is an appropriate method for manufacturing passive electronic components like resistors, capacitors [4], biomedical devices like sensors, diagnostic elements [5] and RFID tags [6], organic transistors [7]. Ink-... więcej»

Przekład komputerowy typu Human-Aided Machine Translation oparty na języku pośredniczącym (Zbigniew Handzel, Mirosław Gajer)
Przekład komputerowy jest interdyscyplinarną dziedziną wiedzy zaliczaną w skład szerszej dyscypliny - lingwistyki komputerowej. Za historyczny początek badań nad automatyzacją przekładu uznaje się wystąpienie w 1947 roku Amerykanina Warrena Weavera, który w swym słynnym memorandum wzywał wybitnych badaczy tamtej epoki do zajęcia się tą niezwykle pasjonującą, ale także niezmiernie skomplikowaną problematyką [1]. Pierwsza grupa badawcza zajmująca się automatyzacją przekładu została powołana na amerykańskim uniwersytecie MIT w 1952 roku. Z kolei w roku 1954 miał miejsce pierwszy, spektakularny, jak na owe czasy, pokaz działającego systemu komputerowego przekładu. Podczas rozważanego pokazu komputer dokonał automatycznego tłumaczenia kilkudziesięciu prostych zdań zapisanych w języku rosyjskim na język angielski. Na fali entuzjazmu, który zapanował po tym wydarzeniu, pojawiły się opinie, że w już niedalekiej przyszłości zawód tłumacza stanie się całkowicie zbyteczny, ponieważ cała dotychczasowa działalność translatorska zostanie powierzona komputerom [2]. Obecnie od omawianych wydarzeń upłynęło już prawie sześćdziesiąt lat, a stawiane wówczas prognozy bynajmniej jeszcze się nie spełniły. Przykład ten dowodzi, jak niezwykle trudną sprawą jest przewidywanie przyszłości i że tak na prawdę nigdy nie będziemy w stanie dokładnie przewidzieć naszej przyszłej wiedzy i bezpośrednio wynikającego z niej poziomu zaawansowania wybranych rozwiązań technicznych [3]. Dostępne w epoce nam współczesnej rozwiązania informatyczne w zakresie automatyzacji przekładu koncentrują się głównie wokół systemów w pełni automatycznych FAMT (ang. Fully-Automatic Machine Translation), w przypadku których ich użytkownik zadaje na wejście tekst zapisany w języku źródłowym, a na wyjściu tego rodzaju systemu oczekuje pojawienia się po pewnym czasie gotowego już przekładu tekstu wyjściowego na język docelowy. Niestety, jakość istniejących obecnie w pełni automatycz... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»