profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Układy sterowania i przetwarzania sygnału z dźwigni piezorezystywnych wzbudzanych elektromagnetycznie (Daniel Kopiec, Andrzej Sierakowski, Maciej Rudek, Wojciech Majstrzyk, Piotr Grabiec, Teodor Gotszalk )
Mikrostruktury belkowe stanowią atrakcyjne narzędzia stosowane w mikro- oraz nanoskali. Obszar ich zastosowań jest bardzo szeroki począwszy od czujników wilgotności, temperatury, pola magnetycznego a kończąc na mikro- i nanomanipulatorach [1-3]. Zmieniając właściwości fizyko-chemiczne powierzchni belki przez odpowiednią funkcjonalizację można ją wykorzystać jako czujnik reagujący na dane typy cząstek lub molekuł znajdujących się w otoczeniu czujnika [2]. Prezentowana mikrodźwignia (rys. 1) wytworzona została w Instytucie Technologii Elektronowej w Warszawie [4].Struktura powstała w wyniku szeregu procesów mikroelektronicznych w krzemie, integrując w swojej budowie detektor wychylenia w postaci piezorezystywnego mostka Wheatstone'a oraz aktuator wychylenia w postaci pętli prądowej [5]. Zaletą układów posiadających detektor ugięcia oraz aktuator wychylenia jest niewątpliwie fakt, że do pomiaru ugięcia nie trzeba wykorzystywać skomplikowanych układów optycznych czy też interferometrycznych. Za pomocą zintegrowanego aktuatora układ taki można wprowadzić w drgania rezonansowe bądź ugiąć statycznie w zakresie do kilkunastu mikrometrów. Mikromechaniczne dźwignie piezorezystywne aktuowane elektromagnetycznie a) Detektor ugięcia Zasada działania detektora piezorezystywnego polega na zmianie rezystancji elementów poddawanych naprężeniom powstającym w wyniku ugięcia bądź drgań mikrodźwigni [1]. Mostek Wheatstone’a, jak zaznaczono na rys. 1, tworzą piezorezystory R1 - R4, które wykonane zostały w wyniku implantacji boru (domieszka typu p) do podłoża krzemowego Elektronika 10/2014 27 Powstanie siły opisanej zależnością (2) powoduje ugięcie mikrobelki, a kierunek ugięcia zależy od kierunku przepływającego prądu oraz kierunku wektora indukcji pola magnetycznego. Tym samym za sprawą kierunku prądu płynącego w pętli łatwo można kontrolować kierunek ugięcia oraz siłę z jaką mikrobelka działa na obiekt. Za źródło pola magnetycz... więcej»

Two types of atmospheric pressure plasma jet - construction and features (Michał Babij, Zbigniew W. Kowalski)
Low temperature atmospheric pressure plasmas (APPs) represent a rapidly developing technology of great application promise. The relative low cost (cheaper and more convenient alternative in comparison with low-pressure plasmas) and desirable properties including: (a) low gas temperature, (b) the reduced or no thermal damage to the substrate, (c) vacuumfree operation, (d) high reactive chemical species, and (e) easy plasma dynamics control caused that the study in applications of atmospheric plasma treatment has been gradually increased. Among other things APPs are routinely used in material processing [1] and, more recently, in industrial [2] and biomedical applications [3] (e.g. bacterium, yeast, fungus, and alga inactivation, cancer cell treatment, decontamination, wound healing, electrosurgery, tissue engineering, surface modification of biocompatible materials, sterilization of heat sensitive materials and instruments, blood coagulation promotion, and tooth root canal sterilization). One of the attractive features of the plasmas in question is the ability to achieve enhanced plasma chemistry without the need for elevated gas temperatures. This is because these plasmas exhibit electron energies much faster than the heavier ions and the neutral species and have the opportunity to heat up before their environment heats up. The gas remains at low temperature and the plasma does not cause any thermal damage to objects it comes in contact. Atmospheric pressure plasmas are generated by a diversity of electrical discharges such as corona discharges, dielectric barrier discharges (DBD), micro hollow cathode discharges and so on, all having their own properties and use [4-8]. Among atmospheric pressure plasmas the atmospheric pressure plasma jet (APPJ) should be mentioned. The phenomenon of APPJ can date back to 1960 s. It is more efficient than the others due to high charged particle and reactive species density in the plasma, lo... więcej»

Postępy w Elektrotechnice Stosowanej Od Komitetu Organizacyjnego
W dniach 16-20 czerwca 2014 r. odbyła się konferencja "Postępy w Elektrotechnice Stosowanej", która jest kontynuatorką dwóch wieloletnich cykli spotkań dotyczących "Postępów w Elektrotechnice Stosowanej" oraz "Modelowania i Symulacji" procesów występujących w otaczającym nas środowisku. Kontynuując tematykę konferencji PES przypominamy jej długoletni cykl z lat 1997-2009 i od 2013 r. corocznie. Konferencją tą chcemy zaakcentować interdyscyplinarność zastosowań elektrotechniki oraz ścisłe związki z elektroniką, mechaniką, ekologią i informatyką. Istotną jej rolą jest integracja naukowców zajmujących się zróżnicowanymi problemami z zakresu szeroko... więcej»

Synteza nanowłókna z bionanocelulozy (BNC) (Przemysław Ceynowa, Justyna Wittych, Przemysław Rytczak, Katarzyna Kubiak, Marek Kołodziejczyk, Katarzyna Mitura 1, inż. Sebastian Krzewiński, Kacper Symonowicz, Stanisław Bielecki, Stanisław Mitura)
Elektrospinning jest metodą otrzymywania nanowłókien z płynnego polimeru lub jego roztworu, za pomocą wysokiego napięcia (<10 kV). Polimer pod wpływem prądu elektrycznego przybiera kształt włókna tzw. jetu i przesuwa się w stronę elektrody o przeciwnym ładunku. W naszych badaniach otrzymywaliśmy jednorodne i proste włókna. Mnogość parametrów którymi możemy sterować podczas prowadzonego procesu elektrospinningu umożliwia nam otrzymanie z tego samego materiału wyjściowego nanowłókien o różnych właściwościach. Niezwykłe możliwości pojawiają się poprzez zastosowanie dodatkowej obróbki powierzchni nanowłókien za pomocą technik jonowych [1, 2]. Metody otrzymywania nanowłókien Nanowłóknami nazywamy włókna o bardzo małych średnicach, wynoszących około 50&#8230;500 nm. Charakteryzują się one znaczną długością oraz niewielkim przekrojem poprzecznym, co skutkuje świetnym stosunkiem powierzchni do objętości. Wyróżniamy zarówno włókna pochodzenia naturalnego (np. celuloza, kolagen) jak i te syntetyzowane przez człowieka. Nanorozmiary nadają włókninie całkowicie inne właściwości niż te występujące w klasycznych włóknach. Unikatowe właściwości włókniny takie jak porowatość, duża powierzchnia oraz gęste usieciowienie nici polimerowych umożliwia jej zastosowanie zarówno w medycynie jak i przemyśle. Nanowłókna z bionanocelulozy Bionanoceluloza (BNC) to materiał wytwarzany metodami biotechnologicznymi przy użyciu bakterii Gluconacetobacter ... więcej»

The Institute of Electric al Electronics Engineers - Polska Sekcja
Najwyższe odznaczenie IEEE dla trzech polskich matematyków za złamanie po raz pierwszy kodów niemieckiej maszyny szyfrującej ENIGMA.IEEE Board of Directors przyznało na swoim posiedzeniu w dniu 29 maja 2014 r. najwyższe odznaczenie IEEE "Milestone" trzem polskim matematykom, którzy w latach 1932 - 39 złamali po raz pierwszy kody niemieckiej maszyny szyfrującej ENIGMA. Odsłonięcie obelisku/kamienia "milowego" z tablicami w jęz. angielski i w jęz. polskim, informującymi o nadanym odznaczeniu, odbyło się w dniu 5 sierpnia 2014 r. przed gmachem Instytutu Matematycznego PAN przy ul. Śniadeckich 8 w Warszawie. Odsłonięcia dokonał Prezydent IEEE prof. J. Roberto de Marca wspólnie z V-Prezydentem m.st. Warszawy Wiesławem Paszyńskim, córką jednego z matematyków - Henryka Zygalskiego p. Janiną Sylwestrzak i Przewodniczącym Polskiej Sekcji IEEE prof. Ryszardem Jachowiczem. W uroczystości ponadto uczestniczyło wielu najwyższych przedstawicieli IEEE a wśród nich Vice-Prezydent IEEE prof. Jacek Żurada, IEEE Dyrektor Div. IV prof. Józef Modelski, IEEE Dyrektor Regionu Europy, Afryki i Bliskiego Wschodu prof. Martin Bastiaans i jego następca prof. Costas Stasopoulos. W uroczystości wzięli również Chairs de Affairs Ambasady Republiki Francji - Philippe Cerf oraz Pierwszy Sekretarz Ambasady Wielkiej Brytanii - David Wallace. Ze strony polskiej obecni byli członkowie Zarządu Polskiej Sekcji IEEE, przedstawiciele najwyższych władz: Polskiej Akademii Nauk z Prezesem prof.Miachałem Kliberem i Dziekanem IV Wydz. Prof.Marianem Kaźmierkowskim, Naczelnej Organizacji Technicznej z Prezesem mgr. Ewą Mankiewicz-Cudny, Stowarzyszenia Elektryków Polskich z Prezesem dr.Piotrem Szymczakiem. Uroczystość odbyła się w oparciu o ceremonię wojskową z wartą honorową włącznie. Ocenia się, że w uroczystości tej uczestniczyło około 250 osób. Moment odsłonięcia obelis... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Wpływ podstawowych parametrów wytwarzania stopów Ni-Co-P oraz Co-P na rezystancję i temperaturowy współczynnik rezystancji (Piotr Kowalik, Zbigniew Pruszowski, Wojciech Filipowski)
Proces chemicznego wytwarzania rezystorów jest obecnie stosowany do produkcji rezystorów klasy "rezystor warstwowy precyzyjny" (RWP) dla rezystorów o rezystancji 0,25÷10,0 &#937; a więc tyczy się on rezystorów niskoomowych. W ostatnich latach coraz częściej stosuje się kobalt otrzymując układy Co-P oraz Ni-Co-P mające zastosowanie w otrzymywaniu pamięci ferromagnetycznych [1]. Z uwagi na brak mechanizmu autokatalitycznego reakcja redukcji biegnie wolniej, stąd niemożność dokonania pełnych badań porównawczych z reakcją wytwarzania Ni-P [2]. Reakcja redukcji dla Co jest porównywalna z reakcją niklowania lecz brak mechanizmu uniemożliwia prowadzenie procesu w pH = 2,0. Otrzymane stopy są amorficzne i stabilne aż do temperatury 550 K, później wytrącają się układy Ni3P+Co3P+CoO (a także w niewielkich ilościach Co i Co3O4)[3, 4, 5, 6, 7] powodujące wzrost TWR z wartości około -100 ppm/K do wartości 1000 ppm/K. Ciekawe wnioski podał Narayanan [4] dla kąpieli Ni-Co-P. Przy początkowym nagrzewaniu (do 250&#186;C) faza amorficzna jest stabilna. Następnie w temperaturze 290&#186;C zaczyna się krystalizacja Ni5P2 oraz Ni3P. Przy dalszym nagrzewaniu (337&#186;C) wydziela się CoO a w temperaturze około 400&#186;C fazy metastabilne przechodzą w stabilne Ni+Ni3P. Skład kąpieli podanej przez Saubestre [8] jest praktycznie niezmienny do dzisiaj. Kąpiel zawiera sól kobaltową, reduktor (podfosforyn sodowy) oraz cytrynian sodu uniemożliwiający wytrącanie galaretowego wodorotlenku kobaltu (stabilizator kąpieli). Badania wstępne prowadzone w Instytucie Elektroniki pozwoliły na sprecyzowanie zakresów parametrów procesu technologicznego: - odczyn kąpieli pH = 3, 4, 5, - temperatura procesu T = 358, 363, 368, 373 K, - czas trwania procesu 10, 20, 30, 40, 50, 60 minut. - stężenia podstawowych produktów CoCl2, NaH2PO2, - 50 g/ dm3 Jakkolwiek c... więcej»

Niskowymiarowe nanostruktury dwutlenku cyny SnO2 w sensoryce gazów (Monika Kwoka, Jacek Szuber)
W ostatnich 20 latach dwutlenek cyny (SnO2) stał się przedmiotem szczególnego zainteresowania mikroelektroniki ze względu na jego potencjalne zastosowania, między innymi w rezystancyjnych sensorach gazu. Wynika to z jego dużego przewodnictwa elektrycznego (~102 &#937;-1 &#8901; cm-1), które silnie się zmienia w atmosferze gazów utleniających oraz redukujących [1, 2]. Z uwagi na to, że efekt sensorowy zachodzi na głębokości obszaru przypowierzchniowego ładunku przestrzennego, przedmiotem szczególnego zainteresowania są nanostruktury SnO2, zwłaszcza ich cienkie warstwy. Ich właściwości sensorowe silnie zależą od technologii ich wytwarzania [3]. Najważniejszą zaletą tych sensorów jest niski pobór mocy. Z drugiej strony posiadają one jednak istotne ograniczenie, którym jest bardzo słabe rozwinięcie powierzchni wewnętrznej, co jest przyczyną ich niskiej czułości. W przeciwieństwie do cienkich warstw a nawet nanowarstw, tego ograniczenia nie mają nanodruty SnO2, ponieważ ok. 30% atomów jest zlokalizowanych na ich powierzchni gdzie pojawia się efekt sensorowy. W pracy zostanie przedstawiony przegląd najważniejszych osiągnięć własnych w zakresie technologii wybranych nanostruktur dwuwymiarowych (2D) i jednowymiarowych (1D) SnO2 oraz charakteryzacji ich właściwości powierzchniowych. Obiektem badań były nanowarstwy SnO2 wytwarzane z fazy pary z dodatkowym wzbudzeniem laserowym (L-CVD) z naniesioną dodatkowo warstwą Ag (pod kątem zwiększenia ich selektywności w detekcji H2S), oraz nanodruty SnO2 wytwarzane metodą osadzania fizycznego z fazy pary (VPD). Przedmiotem szczególnego zainteresowania była ich struktura krystaliczna, morfologia oraz chemia ich powierzchni, w tym stechiometria, oraz zanieczyszczenia powierzchniowe. Uzyskane informacje wykorzystano do interpretacji różnic w czasach odpowiedzi sens... więcej»

Porównanie i analiza możliwości wykorzystania algorytmów MPPT dla paneli fotowoltaicznych z wykorzystaniem różnych profili nasłonecznienia (Paweł Staniak, Grzegorz Iwański, Wojciech Moćko, Marcin Ornowski)
Wprowadzanie założeń gospodarki niskoemisyjnej wymaga zwiększania wykorzystywania odnawialnych źródeł energii (OZE). Mogą być one używane zarówno, jako źródła wielkiej mocy jak i niewielkie źródła dla gospodarstw domowych. Zadanie rozpowszechniania tej idei powinno być realizowane przez władze centralne i przede wszystkim władze lokalne. Województwo mazowieckie aktywnie uczestniczy w tym przedsięwzięciu. Planowane działania mające na celu rozwój gospodarki w oparciu o wykorzystanie OZE znaleźć można w Strategii Rozwoju Województwa Mazowieckiego do roku 2020 [1] oraz w Regionalnym Programie Operacyjnym Województwa Mazowieckiego na lata 2014-2020 [2]. Dodatkowo powstał Program możliwości wykorzystania odnawialnych źródeł energii dla Województwa Mazowieckiego [3], który może pomagać w wyborze rodzaju źródła odnawialnego dla osób chcących wykorzystać je w własnym gospodarstwie domowym. Pośrednim wsparciem dla rozwoju energetyki odnawialnej i wprowadzania założeń gospodarki niskoemisyjnej jest wspomaganie innowacyjności i przedsiębiorczości na Mazowszu. Ze środków skierowanych na te cele możliwe jest rozwijanie zagadnienia użycia OZE. Zyskującym na popularności źródłem odnawialnym stają się ogniwa fotowoltaiczne. Ze względu na zależność wytwarzanej w nich energii od warunków atmosferycznych, zasadne jest dołączanie do nich układów przekształtnikowych umożliwiających kontrolę ilości energii odbieranej ze źródeł do wartości maksymalnej dla aktualnych parametrów nasłonecznienia i temperatury. Właściwości systemu determinuje metoda sterowania w tym przede wszystkim algorytm śledzenia punktu mocy maksymalnej (ang. MPPT - Maximum Power Point Tracking). W niniejszym artykule omówiono kilka z tych algorytmów oraz przedstawiono ich porównanie biorąc pod uwagę sprawność. Model źródła fotowoltaicznego Model matematyczny źródła fotowoltaicznego został wykorzystany w badaniach komputerowych (środowisko PSIM) oraz badaniach laboratoryjnych (... więcej»

Wytwarzanie katod metalicznych ze strukturami plazmonicznymi do polimerowych ogniw fotowoltaicznych (Arkadiusz Ciesielski, Rafał Kasztelanic, Anna Pastuszczak, Tomasz Stefaniuk, Piotr Wróbel, Tomasz Szoplik)
Na obfitujących w ostre krawędzie powierzchniach nanostruktur metalicznych pojawiają się zlokalizowane plazmony elektrostatyczne. Istnienie plazmonów zlokalizowanych jest znane od kilku dekad [1]. Plazmony elektrostatyczne (PE) mają znacznie większą zdolność lokalnego wzmacniania pola elektrycznego niż powierzchniowa fala plazmonowo-polarytonowa (PFPP) [2]. Zauważono, że istnienie na powierzchni metalu podłużnych szczelin o szerokości do kilkunastu i głębokości do kilkudziesięciu nanometrów wywołuje znaczące minima w odbiciu fali elektromagnetycznej od takiej struktury, spowodowane sprzęganiem fotonów do plazmonów elektrostatycznych [2, 3]. Rola plazmonów elektrostatycznych w pułapkowaniu światła na powierzchni nieprzezroczystych elektrod w ogniwach słonecznych jest badana od 2011 roku. Nanostruktury sprzyjające sprzęganiu światła do plazmonów elektrostatycznych są wytwarzane metodami litografii elektronowej lub kierunkowego trawienia krzemowego podkładu [4]. W tej pracy przedstawiamy metody wytwarzania warstw metalu ze strukturami plazmonicznymi do pułapkowania światła. Celem pracy jest znalezienie sposobu na wydajne sprzęganie światła do PFPP dzięki użyciu struktur periodycznych wytworzonych metodą litografii interferencyjnej, czyli sinusoidalnych siatek dyfrakcyjnych o zadanym okresie, struktur przypadkowych wytworzonych dzięki samoorganizacji przy napylaniu próżniowym z wykorzystaniem wiązki elektronów, oraz struktur przypadkowych uzyskanych za pomocą nanolitografii cienia. Profile powierzchni uzyskanych struktur plazmonicznych badano mikroskopem sił atomowych (AFM), natomiast widma transmisyjne skanującym, optycznym mikroskopem pola bliskiego (SNOM). Prace doświadczalne poprzedziły symulacje ugięcia światła na siatkach dyfrakcyjnych przeprowadzone ścisłą metodą fal sprzężonych (Rigorous Coupled- Wave Analysis - RCWA) i wzmocnienia pola w pobliżu struktur metodą różnic skończonych w dziedzinie czasu (Finite- Difference T... więcej»

Synteza nowych poliazometin dla zastosowań w fotowoltaice polimerowej (Kacper Parafiniuk, Agnieszka Iwan, Igor Tazbir, Lech Górecki)
Poprzez reakcję polikondensacji dialdehydów oraz diamin aromatycznych można w prosty sposób otrzymywać polimery o skoniugowanych wiązaniach TT - poliazometiny (poliiminy). Sprzężenie zapewniają powstające podwójne wiązania aldiminowe. Tego typu związki można uważać za półprzewodniki organiczne, podobnie jak szeroko badane politiofeny czy też polifenylowinyleny, interesujące z punktu widzenia elektroniki organicznej, także fotowoltaiki [1, 2]. Podstawową wadą poliazometin (PAZ) jest ich słaba rozpuszczalność [1, 2] w większości rozpuszczalników organicznych, co jest niezmiernie uciążliwe przy wytwarzaniu ogniw fotowoltaicznych. Dodatkowo otrzymywane PAZ wykazują stosunkowo niskie masy cząsteczkowe, w porównaniu do innych polimerów przewodzących, co ogranicza ich praktyczne zastosowania. W celu zwiększenia rozpuszczalności wprowadza się do struktury sprzężonego polimeru ugrupowania boczne - długie, często rozgałęzione łańcuchy alifatyczne lub grupy o charakterze objętościowym (np. cardo) [3, 4]. Niestety modyfikacja budowy chemicznej poliazometin nie zawsze przynosi tak zadowalający efekt jak w przypadku innych sprzężonych polimerów. Poliazometiny są wciąż niedostatecznie zbadaną grupą związków dla zastosowań w fotowoltaice, zatem istnieje potrzeba prowadzenia nad nimi dalszych badań zarówno podstawowych jak i zmierzających w kierunku zastosowań [1, 2]. W niniejszej pracy przedstawione zostały cztery nowe poliazometiny dla zastosowania w objętościowych polimerowych ogniwach fotowoltaicznych. Określone zostały podstawowe właściwości związków takie jak rozpuszczalność, termostabilność, absorpcja w zakresie widzialnym i bliskim nadfiolecie (zarówno w roztworze jak i cienkiej warstwie). Skonstruowano polimerowe objętościowe ogniwa fotowoltaiczne, w których komponent donorowy warstwy aktywnej stanowiła poliimina, akceptorowy z... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Technologia i charakteryzacja struktury p-i-n na bazie InGaAsN do zastosowania w ogniwie tandemowym InGaAsN/GaAs (Wojciech Dawidowski, Beata Ściana, Iwona Zborowska-Lindert, Miroslav Mikolášek, Damian Pucicki, Damian Radziewicz, Katarzyna Bielak, Mikołaj Badura, Jaroslav Kováč, Marek Tłaczała )
Sprawność konwersji jednozłączowych, półprzewodnikowych ogniw słonecznych ograniczona jest tzw. limitem Shockleya- Queissera do 33,7% [1, 2]. Rozwiazaniami pozwalającymi na przekroczenie tego limitu są: zastosowanie struktur o obniżonej wymiarowości (studnie i kropki kwantowe) w obszarze czynnym ogniwa, wytworzenie ogniwa wielozłączowego oraz zastosowanie skoncentrowanego promieniowania słonecznego [3]. Materiał na ogniwo o wysokiej sprawności powinien spełniać szereg wymagań, takich jak prosta struktura przejść optycznych, wysoka wartość współczynnika absorpcji oraz opanowana i powtarzalna metoda otrzymywania struktur o określonych parametrach. Półprzewodniki AIII-BV doskonale realizują kryteria stawiane materiałom na wysokowydajne ogniwa tandemowe. Technologia podogniwa p-i-n wytworzonego z InGaAsN Ogniwo słoneczne typu p-i-n wytworzone zostało metodą epitaksji z fazy gazowej z wykorzystaniem związków metaloorganicznych, przy ciśnieniu atmosferycznym (AP-MOVPE). Szczegóły dotyczące wzrostu heterostruktury InGaAsN/GaAs opisano w pracy [4]. Obszar aktywny ogniwa (zaznaczony kolorem szarym na rys. 1) stanowi niedomieszkowana warstwa InGaAsN umiejscowiona pomiędzy buforem z GaAs domieszkowanym krzemem oraz warstwą InGaAsN domieszkowaną cynkiem. Parametry elektryczne i op... więcej»

60 lat Wydziału Elektrycznego (Janusz Zarębski)
W bieżącym roku Wydział Elektryczny Akademii Morskiej w Gdyni (AMG) obchodzi 60-lecie swojego istnienia. Nasz Wydział został utworzony 1 kwietnia 1954 roku w Państwowej Szkole Morskiej, przekształconej w 1969 roku w Wyższą Szkołę Morską w Gdyni (od 2002 roku Akademia Morska w Gdyni). Jest to jedyny wydział elektryczny w polskiej uczelni morskiej. Zgodnie z rankingiem szanghajskim Akademia Morska w Gdyni zajmuje piąte miejsce w świecie i pierwsze miejsce w Europie wśród uczelni morskich. Podstawowym zadaniem Wydziału Elektrycznego AMG jest kształcenie oficerów marynarki handlowej i przygotowanie studentów do pełnienia funkcji oficera elektroautomatyka okrętowego lub radioelektronika. Kształcenie to jest realizowane zgodnie ze... więcej»

Sterowanie procesem drukowania 3D (Krzysztof Gracki )
Możliwości niskokosztowego sterowania silnikami krokowymi pozwoliły na rozpowszechnienie urządzeń poruszających się w trzech wymiarach XYZ. Jednym z takich urządzeń są drukarki. Nazwa ta nie jest adekwatna do tradycyjnego rozumienia jej działania, ponieważ w procesie "wydruku" powstaje pełnowartościowy trójwymiarowy element. Dziedzina ta szybko się rozwija i jak twierdzi Economist, technika ta będzie zaczątkiem "trzeciej rewolucji przemysłowej" opartej na cyfrowej, masowej produkcji elementów dostosowanych do indywidualnych potrzeb użytkownika [1]. Pierwsze drukarki 3D powstały w latach 80. i działały w technologii stereolitografi SLA (ang.stereolithography) [2]. Model budowany był z ciekłych polimerów, które warstwa po warstwie utwardzane były światłem ultrafioletowym bądź laserem. Innym sposobem tworzenia obiektów było wykorzystanie materiałów sypkich, które następnie spiekane są laserem czyli tzw. metody SLS (ang. Selective Laser Sintering).W pracy [3] wymieniono ponad 40 technologii używanych w druku 3D. Wśród rozwiązań domowych najczęściej używana jest technologia FDM (ang. Fused Deposition Modeling), w której roztapiany plastik układany jest warstwa po warstwie, by w efekcie utworzyć pożądany model. Najczęściej używany jest biodegradowalny polimer PLA (ang. Polylactic Acid) lub tworzywo ABS. Rysunek 1 przedstawia schemat tego typu konstrukcji. Drukarki tego typu wyposażone są w co najmniej cztery silniki krokowe, których zadaniem jest pozycjonowanie głowicy drukującej (X,Y,Z) oraz sterowanie wypływem plastiku przez tzw. ekstruder, zaznaczony na rysunku 1literą E. Wspólną cechą wszystkich rozwiązań jest to, że korzystają one z techniki addytywnej, tzn. model powstaje z użyciem kolejnych przekrojów obiektu. Konstrukcja drukarek Podczas badań związanych z budową maszyn samoreplikujących powstał projekt o nazwie RepRap. Ponieważ drukarka 3D może drukować elementy plastikowe, a wiele jej części też wykonanych jest z tworzy... więcej»

Właściwości wielofunkcyjnych cienkich warstw TiO2:Nd z przeznaczeniem na powierzchnię ogniw słonecznych (Michał Mazur, Danuta Kaczmarek, Damian Wojcieszak, Jerzy Morgiel, Małgorzata Kalisz, Magdalena Szymańska )
Zastosowanie tlenków metali o ściśle określonych właściwościach wzrasta w ostatnich latach, szczególnie w nowoczesnych technologiach, np. nanotechnologii [1-3]. Tlenki metali są używane w elektronice, optoelektronice, czy fotonice. Dla przykładu ze względu na bardzo dobre właściwości izolacyjne znajdują one zastosowanie w przemyśle półprzewodnikowym do wytwarzania układów scalonych wielkiej skali integracji. Domieszkowanie materiałów tlenkowych daje możliwość modyfikacji ich właściwości w bardzo szerokim zakresie [4-7]. Wśród materiałów stosowanych w nowoczesnych technologiach można wyróżnić materiały mikrokrystaliczne o krystalitach rzędu mikrometrów oraz materiały nanokrystaliczne o strukturze, którą tworzą krystality o wymiarach mniejszych niż 100 nm. Nanokrystaliczne tlenki metali o rozmiarach krystalitów rzędu od kilku do kilkunastu nanometrów mogą występować zarówno w postaci cienkich warstw, jak i proszków. W szczególności cienkie warstwy stosowane są w celu poprawienia właściwości materiałów, na które są nanoszone [1]. Cienkie warstwy mogą pełnić funkcje dekoracyjne, czy też stanowić materiał o zwiększonej odporności na korozję, odporności na ścieranie i twardości. Z tego względu nanokrystaliczne tlenki metali mogą być również stosowane jako warstwy ochronne. Inne przykłady zastosowania nanokrystalicznych warstw tlenkowych to powłoki antyrefleksyjne, nakładane np. na powierzchnię ogniw słonecznych, powłoki antybakteryjne, przezroczyste elektrody czy też warstwy czujnikowe. Jednym z materiałów, który w dziedzinie wytwarzania różnego typu powłok od lat cieszy się dużym zainteresowaniem jest dwutlenek tytanu (TiO2) [1, 7-10]. Zainteresowanie dwutlenkiem tytanu związane jest z unikatowymi właściwościami tego materiału, dzięki czemu może on zostać wykorzystany w różnych gałęziach przemysłu [1]. Do zalet TiO2należy między innymi neutralność dla środowiska, nietoksyczność, duża odporność chemiczna, termiczna, mechaniczna... więcej»

Laserowa metoda wykonywania cieczowych mikrowymienników ciepła zintegrowanych z elementami elektronicznymi (Mateusz Tański, Marek Kocik, Robert Barbucha, Jerzy Mizeraczyk )
W dobie miniaturyzacji układów elektronicznych problem skutecznego odprowadzania z nich ciepła staje się coraz bardziej skomplikowany. Jedną z przeszkód na drodze do zwiększenia stopnia zminiaturyzowania układów elektronicznych są duże wymiary tradycyjnych systemów odprowadzających ciepło emitowane przez elementy elektroniczne (diody, tranzystory, układy scalone) [1]. Przykładem takich systemów są radiatory, na których montowane są obudowy elementów elektronicznych dużej mocy. Duże wymiary radiatorów ograniczają możliwość gęstego upakowania elementów elektronicznych na płytkach drukowanych [2]. Rozwiązaniem problemu chłodzenia układów elektronicznych może okazać się zintegrowanie układów odprowadzających ciepło z elementami elektronicznymi. Przykładem takiego rozwiązania są cieczowe mikrowymienniki ciepła zintegrowane z elementami elektronicznymi. W tym przypadku ciecz chłodząca doprowadzana jest blisko półprzewodnikowego elementu elektronicznego, co pozwala na skuteczne odprowadzanie ciepła emitowanego przez ten elem... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Wykorzystanie pakietu GCC do realizacji funkcji symulatora logiki programowalnej (Maciej Andrzejewski, Radosław Przybysz, Paweł Wlazło)
Chyba każdy programista, chociaż raz skorzystał z pakietu GCC do tworzenia własnej aplikacji narzędziowej, czy programu dla mikrokontrolera jednoukładowego. Pakiet oprogramowania umożliwia kompilację programu napisanego w języku C, C++, Objective-C, Fortran, Java, Ad, oraz Go do postaci pliku wykonywalnego lub biblioteki statycznej lub dynamicznej. Uniwersalność narzędzi wchodzących w skład pakietu oprogramowania GCC pozwala na kompilację programu dla praktycznie dowolnej architektury procesorów m.in.: ARM, X86, AMD64, PowerPC, MIPS, SPARC oraz wielu innych. Pakiet GCC jest, zatem idealnym narzędziem do tworzenia wieloplatformowej technologii kompilacji programu dla urządzeń automatyki przemysłowej oraz tworzenia symulatora ich działania w systemach operacyjnych Windows czy Linux. Poniżej przedstawiono przykład wykorzystanie pakietu GCC do budowy symulatora inteligentnego urządzenia elektronicznego (sterownika PLC) w zakresie logiki programowalnej. Artykuł powstał w ramach prowadzonej pracy badawczo-rozwojowej "Symulator Funkcji Logicznych", której wyniki będą zaimplementowane w oprogramowaniu narzędziowym ELF (Edytor Funkcji Logicznych) [1][2] do sterowników polowych typu MUPASZ [3][4] opracowywanych w Instytucie Tele- i Radiotechnicznym w Warszawie. Budowa przykładowego oprogramowania sterownika PLC Na rysunku 1. przedstawiono przykładową budowę oprogramowania s... więcej»

Kompozyty magnetycznie miękkie przeznaczone do pracy przy częstotliwości z zakresu 1 do 100 kHz (Bartosz Jankowski, Marek Przybylski, Dariusz Kapelski, Barbara Ślusarek)
Materiały magnetyczne stosowane w elektrotechnice dzielą się na materiały magnetycznie miękkie przeznaczone na obwody magnetyczne, materiały magnetycznie twarde przeznaczone na magnesy trwałe oraz materiały półtwarde stosowane, jako materiały, które trwale są namagnesowane, lecz stosunkowo łatwo ulegają rozmagnesowaniu czy przemagnesowaniu. Materiały magnetycznie twarde lub magnetycznie miękkie są wykonywane m.in. jako kompozyty, czyli materiały składające się, co najmniej z dwóch składników tzw. faz. W kompozytach magnetycznych najczęściej jeden składnik pełni rolę lepiszcza, natomiast drugi nadaje mu właściwości magnetyczne. W przypadku kompozytowych materiałów magnetycznie miękkich jednym składnikiem jest proszek magnetycznie miękki najczęściej proszek żelaza, natomiast spoiwem są spoiwa organiczne takie jak żywice i kleje epoksydowe lub nieorganiczne takie jak np. szkło fosforanowe. Spoiwa stosowane do klejenia proszku magnetycznego są izolatorami elektrycznymi, co umożliwia stosowanie kompozytów magnetycznych w obecności zmiennych pól magnetycznych z uwagi na małe straty z prądów wirowych oraz brak wypierania strumienia magnetycznego z magnetowodu. Magnetycznie miękkie kompozyty są ciekawą alternatywą dla klasycznych materiałów magnetycznych takich jak np. blachy elektrotechniczne, do zastosowania w obwodach magnetycznych pracujących przy zmiennym strumieniu magnetycznym. Dotychczasowe badania pokazały, że stosowanie kompozytów magnetycznych wykonanych ze sprasowanego pod dużym ciśnieniem proszku żelaza pozwala obniżyć straty mocy w porównaniu do obwodów magnetycznych wykonanych z blach elektrotechnicznych. Kompozyty magnetycznie miękkie pracujące powyżej częstotliwości 400 Hz wykazują straty mocy mniejsze niż obwody magnetyczne wykonane z blach elektrotechnicznych. Obecnie jako rdzenie na dławiki i transformatory w zakresie częstotliwości od kilkudziesięciu kHz do kilku MHz powszechnie stosowane są tzw. rdzenie proszk... więcej»

Metoda szybkiej kalibracji torów kontroli ciągłości uziemienia zabezpieczeniowego urządzenia towarzyszącego (Karol Makowiecki, Paweł Michalski)
Głównym zadaniem górniczych sterowników zabezpieczeniowych, których obwody pracują w atmosferze metanowej wyrobisk węgla kamiennego jest ochrona przeciwporażeniowa personelu kopalni. W tym celu w górniczych sterownikach polowych stosuje się obwody iskrobezpieczne podlegające dyrektywie ATEX [1]. Rozwiązania układowe obwodów kontroli ciągłości uziemienia iskrobezpiecznego wymagają dużej liczby pomiarów kontrolujących wartości poszczególnych elementów schematu elektrycznego zawierającego zarówno elementy liniowe (rezystancja szeregowa i rezystancja równoległa) jak i element nieliniowy w postaci diody. Stosowane dotychczas rozwiązania wymagały czasochłonnej kalibracji każdego obwodu. Wydłużony czas kalibracji spowodowany był zastosowaniem w pełni analogowych obwodów zawierających precyzyjne potencjometry ustalające punkty pracy obwodu. Układy te były podatne na zakłócenia impulsowe, a zmiany poszczególnych elementów obwodu wpływały na zmianę wartości innych elementów. Rysunek 1 przedstawia schemat funkcjonalny prezentujący obwód kontroli ciągłości uziemienia podczas normalnej pracy. Do zacisków L1 i L2 obwodu kontroli ciągłości uziemienia dołączony jest pasywny obwód składający się z długiego odcinka przewodu uziemionego w pobliżu uziemionego elementu wyposażenia kopalni np. silnika trójfazowego. Do obwodu włączona jest szeregowa dioda krzemowa, która pozwala na wykrycie najgroźniejszej z punktu widzenia bezpieczeństwa sytuacji, to jest zwarcia obwodu kontroli ciągłości uziemienia z pominięciem uziemienia diody - a więc sytuacji w której obwód bez diody krzemowej nie jest w s... więcej»

Badania magnetycznych czujek stykowych stosowanych w systemach alarmowych (Stefan Kuciński)
W systemach alarmowych stosowane są różne rodzaje czujek, w zależności od określonych sposobów ochrony obiektów. Powszechnie stosuje się pasywne i aktywne czujki podczerwieni, czujki mikrofalowe, ultradźwiękowe lub czujki dualne składające się z dwóch detektorów, np. podczerwieni i mikrofal. Metodyka ich badań przedstawiona jest w odpowiednich normach, a także w różnych publikacjach, np. [1 i 2]. Dużą grupę stanowią również czujki magnetyczne stykowe, które zwane są też kontaktami magnetycznymi. Czujki te stosowane są w systemach alarmowych głównie do ochrony okien, drzwi, bram lub innych elementów ruchomych, przez które jest możliwe wejście do chronionego obiektu. Mogą one być instalowane na elementach drewnianych, plastykowych i metalowych. Współpracują z centralami alarmowymi, które monitorują stan czujek i przetwarzają otrzymywane sygnały. Zadaniem czujek magnetycznych jest wysłanie do centrali odpowiedniego sygnału w przypadku, gdy nastąpiła próba wtargnięcia do wnętrza chronionego obiektu lub też, gdy nastąpiła próba uszkodzenia czujki lub przerwania połączeń między nią a urządzeniami współpracującymi. Rodzaj przesyłanego sygnału wynika ze stanu czujki (zwarcie lub rozwarcie styku). Czujki te są również wykorzystywane w systemach automatyki. Ich szeroki zakres zastosowań wynika ze szczególnych właściwości - charakteryzują się wysoką odpornością na zabrudzenie, zapylenie i wibracje, a także prostą budową i niskim kosztem. Niektóre z tych czujek posiadają zdolność do pracy w szerokim zakresie temperatur, a także charakteryzują się wysokim stopniem ochrony przeciwsabotażowej, co umożliwia stosowanie ich w miejscach wymagających szczególnego nadzoru. W przypadku ochrony pomieszczeń mieszkalnych istotną właściwością czujek magnetycznych jest ich niewrażliwość na poruszanie się w tych pomieszczeniach zwierząt domowych. Czujki magnetyczne mają bardzo prosta budowę, składają się z dwóch elementów magnesu trwałego i kontaktronu.... więcej»

Tester interfejsu kamery cyfrowej mikrokontrolera (Adam Kalinowski)
W Centrum Automatyki Instytutu Tele- i Radiotechnicznego opracowywane są urządzenia elektroenergetycznej automatyki zabezpieczeniowej. Powstała koncepcja, żeby nastawy parametrów tych urządzeń wprowadzać przy pomocy interfejsu optycznego, zbudowanego z modułu kamery cyfrowej połączonej z mikrokontrolerem. Nastawy w postaci kodu kreskowego są odczytywane przez kamerę i przesyłane do mikrokontrolera. Artykuł opisuje tematy związane z realizacją powyższej koncepcji. Moduł kamery cyfrowej jest przetwornikiem obrazu, który można połączyć z systemem mikrokontrolerowym. Składa się z sensora obrazu typu CMOS, toru analogowego o regulowanym wzmocnieniu, przetworników analogowo - cyfrowych, procesora do obróbki obrazu i kodowania formatu JPEG, generatora przebiegów zegarowych i wewnętrznego mikrokontrolera nadzorującego system kamery. Wymienione bloki sprzętowe noszą nazwę system on chip (SOC). Po dołączeniu obiektywu, SOC umoż... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Zastosowanie pseudolosowych generatorów chaotycznych do transmisji danych wrażliwych z użyciem magistral szeregowych (PAWEŁ DĄBAL, RYSZARD PEŁKA)
Obecnie dużym zainteresowaniem cieszą się systemy telemetryczne umożliwiające integrację wielu rodzajów czujników oraz aktuatorów (urządzeń wykonawczych). Rozbudowa systemu pociąga za sobą konieczność użycia niezawodnych sposobów komunikacji pomiędzy elementami systemu. Podzielić możemy je na dwie zasadnicze grupy: przewodowe (np. I2C, SPI , CAN) oraz bezprzewodowe (np. ZigBee, Wi-Fi). W przypadku transmisji bezprzewodowych niemal standardem jest stosowanie mechanizmów mających zapewnić poufność i autentyczność przesyłanej informacji. Transmisja przewodowa z racji ograniczonego dostępu do medium transmisyjnego do tej pory nie przyciągała uwagi badaczy. W przypadku kiedy przesyłane dane są wrażliwe, ważnym aspektem staje się zapewnienie możliwości zabezpieczenia ich z użyciem znanych technik kryptograficznych. Ma to szczególne znaczenie w przypadku aplikacji mających zapewnić bezpieczeństwo człowiekowi posługujących się nimi np.: aparaturą medyczną, w motoryzacji (ABS, ESP, ACC ) i kontroli procesów produkcyjnych [1, 2]. Niekiedy kiedy jeden z komponentów systemu (np. czujnik biomedyczny) może być zastąpiony komponentem nie spełniającym specyficznych wymagań systemu (np. precyzji, rozdzielczości, obsługi procedur diagnostycznych, itp.). Innym rodzajem zagrożenia jest narażenie na modyfikację lub całkowite uniemożliwienie komunikacji oraz wywołanie niestabilności systemu lub jego całkowitej awarii. Zastosowanie szyfrowania i uwierzytelnienia zapewnia podwyższenie bezpieczeństwa i ułatwia szybsze wykrywanie ataku na magistralę. W celu zapewnienia poufności danych można zastosować powszechnie znane algorytmy kryptograficzne z symetrycznym kluczem (np. DES, AES). Za integralność danych odpowiadają funkcje skrótów (np. SHA), natomiast za uwierzytelnienie algorytmy z kluczem publicznym (np. RSA). Implementacja ich w urządzeniach mających komunikować się za pośrednictwem prostych magistral szeregowych najczęściej odbywa się progr... więcej»

Obtaining 3D information from 2D images (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)
Modern surveillance systems are based on the analysis of CCT V cameras. One of the problems that are encountered when trying to use an image for further analysis in terms of surveillance is the lack of information about the perspective. It is possible to use stereovision, but such a solution is expensive and complicated. Normal image does not have information about the perspective. By doing some reference measurements we can obtain the spatial information about the scene observed by the camera [5]. Scene configurator 2.5D allows obtaining 3D information from 2D image captured by a single camera by performing the following procedure when setting up the system and using it at a later stage image processing. Scene configurator 2.5D Configurator 2.5D allows the model to determine the perspective of the observed scene from a series of images. It is necessary to prepare and use a pattern in the form as shown in Figure 1.Pictures should be taken so that the lower bar pattern was on the floor and the top was at right angle to the floor. Lower bar should also be at right angle to the axis focal length of the lens. Pattern should be visible on image and pattern should not be photographed directly from the front or above, because these situations do not allow reference measurements. The example picture with a pattern is shown in Figure 2. To run the program the MATLAB Compiler Runtime (MCR ) version R2012b (32-bit) must be first installed, you can download the appropriate version for your operating system from: http://www.mathworks.com/products/compiler/mcr/index.htmlWhen the scene configurator is run, the main window shown in Figure 3 is displayed. Now the real image must be loaded to analyse it. For that purpose the user must click on the button and load the file from the hard drive. On the right side there are the following buttons located: &#9679; Button top, &#9679; Button left down, &#9679; Button middle down, &#9679; Button ... więcej»

People counting vision system based on ARM processor programmed using Simulink environment (Tomasz Marciniak, Agata Chmielewska, Adam Dąbrowski, Albert Malina)
Modern video monitoring systems provide advanced image processing and support safety of people in the urban area [1, 2]. These situations include: analysis of human silhouettes, human movements [3], face detection and face recognition [4, 5], collecting information on people entering and/or leaving a building [6], or testing and estimating the number of people in urban areas [7]. Commercial systems used for people counting, described in next section, become more and more popular. They are mainly used to control flow of people in public buildings (e.g., shopping galleries), giving a lot of useful information in realtime such as e.g.: the sale success, the most popular pedestrian track, or the rush hour [3]. A real-time system presented in this paper monitors the entrance to a building and determines the number of people crossing the gate observed by a digital video camera. The required video processing operations have been realized in the MATLAB/Simulink environment, that had been chosen because of its widespread use as well as flexible simulation and experimental testing possibilities. In addition, this environment contains a lot of libraries, which support image processing operations - the Computer Vision System Toolbox [8] with e.g. People Tracking models, implemented and modified in our system. In our research we would like the system to be autonomous, so we have implemented our algorithm for bi-directional people counting on Raspberry Pi microcomputer [9]. As it is shown in Fig. 1, the designed system detects people passing under a camera positioned vertically down. The video signal from the camera is delivered to the Raspberry Pi microcomputer and this device performs all calculations on the input data. The fast prototyping [10-13] and implementation on this hardware is supported by Matlab 2013b and Simulink Support Package for Raspberry Pi Hardware library [14]. The paper presents important features of the prepared p... więcej»

Narodowa Inicjatywa Fotoniki (Ryszard S. Romaniuk)
Szybki rozwój zaawansowanych technologii - a taką jest fotonika, i utrzymanie konkurencyjnej pozycji na rynku globalnym, wymaga inicjatyw globalnych w postaci planowania i realizacji bardzo dużych programów badawczych i przemysłowych, obecnie na poziomie miliardów lub dziesiątków miliardów euro. Fotonika nieodwracalnie zastępuje klasyczne metody produkcji. Mechaniczne metody obróbki w wielu sektorach przemysłów wytwórczych ustępują addytywnym metodom fotonicznym. Oświetlenie klasyczne zastępowane jest na masową skalę fotonicznym. Klasyczne radary ustąpią, wcześniej czy później, radarom optycznym. Konieczne jest szkolenie kadr do wdrażania nowych technologii fotonicznych oraz przekonanie społeczeństwa do zmian, w warunkach wzmacniającej się konkurencji globalnej. Nagrodą dla prymusa technologii jest, w dzisiejszych czasach otwartego informacyjnego społeczeństwa internetowego, szybkie opanowanie rynku globalnego, osiągnięcie największych zysków, a także możliwość narzucenia swoich standardów, a więc uzyskanie trwalszych efektów. Jak to zrobić? Częściowo na to pytanie stara się odpowiedzieć Narodowa Inicjatywa Fotoniki NPI . Sponsorami Narodowej Inicjatywy Fotoniki są dwa największe światowe zawodowe organizacje fotoniczne: Optical Society of America - OSA, oraz International Society for Optics and Photonics - SPIE . "Fotonizacja społeczeństwa" Przez "fotonizację społeczeństwa" rozumiane są ściśle skorelowane, globalne działania edukacyjne, szkoleniowe, naukowo-techniczne, organizacyjne, gospodarcze, ekonomiczne, polityczne, a także rozpowszechniające i społeczne, a nawet psychologiczne. Amerykańska masywna inicjatywa "fotonizacji społeczeństwa" nosi nazwę NPI - National Photonics Initiative [1]. Celem inicjatywy podjętej wspólnie w USA przez szereg organizacji społecznych, naukowotechnicznych [2-6], gospodarczych, biznesowych, a także rządowych jest: "Lighting the Path to a Competitive, Secure Future". Głównie gospodarcza ... więcej»

Przepływomierz kolanowy do pomiaru strumieni przepływu gazu (Michał Kamiński, Artur Andruszkiewicz)
Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Zastosowanie operatora krzyżowania równomiernego w przypadku algorytmów ewolucyjnych z krzyżowaniem wieloosobniczym (Zbigniew Handzel, Mirosław Gajer)
Różnorodne techniki obliczeniowe, określane wspólnie mianem systemów ewolucyjnych cieszą się obecnie niesłabnącym zainteresowaniem, a obszary ich potencjalnych zastosowań nieustannie się powiększają, obejmując między innymi zagadnienia optymalizacji wielokryterialnej o dynamicznie zmieniających się uwarunkowaniach [1]. Do tego rodzaju technik obliczeniowych zaliczane są, między innymi, algorytmy ewolucyjne, algorytmy genetyczne, programowanie ewolucyjne, programowanie genetyczne, a także tzw. algorytmy rojowe, naśladujące zjawiska zachodzące w obrębie zbiorowości owadów społecznych, takich jak na przykład mrówki i pszczoły [2]. Zasady działania wymienionych technik obliczeniowych sprowadzają się do cyklicznego wykonywania odpowiednich operacji genetycznych, do których zalicza się przede wszystkim wzajemne krzyżowanie osobników, mutację ich materiału genetycznego oraz selekcję osobników, które będą mogły przejść do kolejnego pokolenia [3]. Tematyka niniejszego artykułu została poświęcona genetycznemu operatorowi krzyżowania, który realizowany jest w wersji tzw. krzyżowania wieloosobniczego. Jak sama nazwa wskazuje krzyżowanie wieloosobnicze sprowadza się do jednoczesnego zastosowania operatora krzyżowania do więcej niż dwóch osobników. Tego rodzaju proces nie ma swej bezpośredniej analogii w świecie przyrody [4]. Zastanawiając się nad przyczynami takiego stanu rzeczy, jako na główny powód należy wskazać prawdopodobnie na ewentualne trudności praktycznej realizacji w naturalnych warunkach procesu jednoczesnej wymiany materiału genetycznego pomiędzy trzema, a tym bardziej pomiędzy większą liczbą osobników. Prawdopodobnie tego rodzaju proces okazałby się być "zbyt kosztowny" w praktycznej realizacji, aby przyroda była skłonna go wypróbować podczas trwającej ponad miliard lat ewolucji życia na Ziemi. Jednak w przypadku sztucznych system... więcej»

Wpływ obecności farm wiatrowych na działanie radaru pasywnego (Janusz S. Kulpa, Marcin K. Bączyk, Krzysztof Kulpa)
W ostatnich latach można zaobserwować duży wzrost liczby turbin wiatrowych w Polsce [14]. Spowodowane jest to w dużej mierze presją Unii Europejskiej na rozwój odnawialnych źródeł energii. Należy jednak mieć na uwadze, iż budowa farm wiatrowych może niekorzystnie wpłynąć na skuteczność systemów radiolokacyjnych, zarówno aktywnych jak i pasywnych. Turbina wiatrowa jest obiektem w skład którego wchodzą silnie odbijające części o szerokim spektrum prędkości. W minionych latach powstało wiele analiz skupiających się na oddziaływaniu farm wiatrowych na radary [2, 9, 10]. Głównie dotyczą one monostatycznych radarów aktywnych. Powstały też algorytmy, które pozwalają na usunięcie lub ograniczenie szkodliwych efektów wywoływanych przez obecność farmy wiatrowej w obszarze pracy radaru [11], [13]. Literatura obejmująca analizy wpływu parków wiatrowych na radary multistatyczne, w tym na radary pasywne, jest uboga. Większość sposobów używanych w radarach aktywnych nie może być bezpośrednio zastosowana w radiolokacji pasywnej. Radar pasywny PCL (ang. Passive Coherent Location) to radar, który nie emituje własnych fal elektromagnetycznych - wykorzystuje sygnały już obecne w przestrzeni, takie jak radio FM, naziemna telewizja cyfrowa DVB-T, stacje sieci komórkowych GSM, bądź internetu bezprzewodowego [1, 5, 7, 8]. Radar taki rejestruje sygnał z nadajnika, tzw. sygnał referencyjny xref , oraz sygnał obserwacyjny xs zawierający odbite od występujących w obserwowanej scenie obiektów kopie sygnału nadawanego. Detekcja następuje wskutek korelacji sygnału odebranego z obserwowanej sceny z sygnałem referencyjnym za pomocą dwuwymiarowej funkcji niejednoznaczności [3]: (1) gdzie &#964; jest przesunięciem czasowym, fd częstotliwościowym sygnału xref, a* jest operatorem zespolonego sprzężenia. Maksima funkcji niejednoznaczności odpowiadają przesunięciom czasowym i częstotliwościowym obserwowanych obiektów, czyli określają ich odległość i prędkość bi... więcej»

Model przepływomierza tarczowego (Paweł Pliszka, Elżbieta Wróblewska, Artur Andruszkiewicz)
W Instytucie Techniki Cieplnej i Mechaniki Płynów Politechniki Wrocławskiej prowadzone są prace dotyczące wyznaczenia charakterystyk metrologicznych różnego typu przepływomierzy. Zbudowano m.in. model przepływomierza oscylacyjnego i wyznaczono jego charakterystykę [1], przeanalizowano pracę przepływomierza ultradźwiękowego w niestandardowych warunkach pracy i dla wysokiej temperatury przepływającego płynu [2]. Aktualnie prowadzone są prace nad przepływomierzem tarczowym. Zbudowano jego model, a także wyznaczono jego charakterystyki metrologiczne. Przepływomierze te charakteryzują się tym, że można je wykorzystywać do pomiarów płynów zabrudzonych zanieczyszczeniami stałymi, a także pęcherzami gazu [3]. Można je również stosować w pomiarach płynów o wysokich ciśnieniach i temperaturach, a jego dokładność jest rzędu dokładności klasycznych przepływomierzy np. zwężkowych. Celem artykułu jest opisanie budowy przepływomierza tarczowego wraz ze sposobem rejestracji sygnału od siły naporu hydrodynamicznego płynu na tarczkę, a także przedstawienie przykładowych jego charakterystyk. Model przepływomierza tarczowego Rysunek 1 przedstawia szkic przepływomierza tarczowego, który służy do wyprowadzenia równania pomiaru. Pisząc równanie Bernoulliego dla przekrojów 1-1 i 2-2, równanie ciągłości oraz wzór na siłę naporu na tarczkę kołową umieszoną w środku rurociągu, strumień objętości czy masy przepływającego płynu w rurociągu można wyznaczyć z równania 1 lub 2 [4]: (1) (2) q =  ... więcej»

Implementacja interfejsu 1-Wire w systemie FreeRTOS dla mikrokontrolera AVR (Bernard Wyrwoł)
Warstwa aplikacji systemu wbudowanego, zrealizowanego z wykorzystaniem mikrokontrolera w warstwie sprzętowej, może bazować na dedykowanym oprogramowaniu lub wykorzystywać system operacyjny czasu rzeczywistego RTOS. To drugie rozwiązanie ma te niepodważalne zalety, że umożliwia pracę wielozadaniową, kod oprogramowania można przenieść na dowolną platformę (wspieraną przez system operacyjny), sam system operacyjny wspomaga mechanizmy obsługi wyjątków i ochrony pamięci (o ile wspierany jest przez architekturę mikrokontrolera), ułatwiona jest współpraca zespołu programistów nad aplikacją, a także zachowana jest duża skalowalność projektu (w łatwy sposób można dopasować funkcje systemu operacyjnego do wymagań realizowanego projektu). Dodatkową zaletą niektórych systemów operacyjnych, w tym także systemu operacyjnego FreeRTOS [3], jest możliwość ich bezpłatnego wykorzystania nawet w komercyjnych aplikacjach. System operacyjny czasu rzeczywistego posiada zaimplementowany zegar czasu rzeczywistego tzw. zegar systemowy, który to wyznacza najmniejszy możliwy czas rozróżniany przez system. Częstotliwość zegara systemowego można zmieniać w pewnych granicach, zwykle przyjmuje się jego wartość z zakresu od 10 Hz do 1 kHz, co daje rozdzielczość pomiaru czasu odpowiednio od 100 ms do 1 ms. Mała częstotliwość wydłuża czas reakcji systemu operacyjnego na zdarzenia jakie zachodzą wewnątrz tego systemu (np. przekazywanie danych pomiędzy zadaniami) lub na zdarzenia pochodzące z zewnątrz (np. odczyt stanu wejść). Z drugiej strony zbyt duża częstotliwość prowadzi do zmniejszenia wydajności systemu (system operacyjny zużywa dużo więcej zasobów czasowych niż realizowane zadania). W systemach wbudowanych zewnętrzne układy peryferyjne komunikują się z mikrokontrolerem za pośrednictwem sprzętowych interfejsów zarówno równoległych (np. wykorzystujących porty równoległe ogólnego przeznaczenia) jak i szeregowych (np. USART, SPI, TWI). Jednym z szeregowyc... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Adaptacyjna transmisja sygnału EKG z użyciem predykcji interwałów R-R za pomocą odpornej funkcji regresji (Paweł Kowalski, Michał Momot, Arkadiusz Stankiewicz, Rafał Wiśniowski, Krzysztof Różanowski)
Jednym z zagadnień, które można zaliczyć do obszaru inżynierii biomedycznej jest telemedycyna, która stanowi formę opieki zdrowotnej łączącą telekomunikację, informatykę i medycynę. Stwarza to między innymi możliwość przełamywania barier geograficznych i zwiększa efektywność wykorzystania potencjału istniejących struktur służby zdrowia. W celu usprawnienia funkcji realizowanych przez placówki medyczne korzystnej wydaje się wykorzystywanie nowoczesnych technologii teleinformatycznych. Nieodzownym elementem procesu diagnostyczno-terapeutycznego jest wymiana informacji pomiędzy jednostkami ochrony zdrowia na różnych poziomach. Konsultacja medyczna realizowana w sposób klasyczny wiąże się z koniecznością transportu badanej osoby, czasami również towarzyszącego lekarza oraz dokumentacji medycznej pomiędzy poszczególnymi placówkami ochrony zdrowia. Realizacja konsultacji przy pomocy łączy telekomunikacyjnych zapewniających odpowiednią jakość przekazu pozwala przyspieszyć ten proces. Zdalne techniki medyczne należą do najbardziej rozwojowych narzędzi monitorowania, diagnostyki i leczenia. Nieomal w każdej dziedzinie i specjalności medycznej można polegać na telekonsultacji lub telediagnostyce. Wśród systemów leżących w obszarze telemedycyny można znaleźć takie, które są związane z transmisją sygnałów elektrodiagnostycznych [1]. Do takich sygnałów należą między innymi, sygnały elektrokardiograficzne (EKG), elektroencefalograficzne (EE G), czy elektromiograficzne. Sygnały te, podlegają akwizycji z ciała osoby badanej na drodze pomiaru wielkości elektrycznych, w szczególności napięcia lub rezystancji. Wielkości elektryczne, rejestrowane na powierzchni ciała mogą być, po uprzednim wzmocnieniu i wstępnym przetworzeniu, zamienione na postać cyfrową. Dalsze ich przetwarzanie odbywa się poprzez realizację programów komputerowych, w komputerach stacjonarnych, urządzeniach mobilnych lub mikrokontrolerach. Praca przedstawia zagadnienie selekt... więcej»

Zagadnienia związane z przekładem zaimków osobowych w systemie tłumaczenia komputerowego typu Human-Aided Machine Translation (Zbigniew Handzel, Mirosław Gajer, Joanna Dybiec-Gajer )
Przekład komputerowy już od dobrych kilkudziesięciu lat pozostaje w kręgu zainteresowań interdyscyplinarnych zespołów badawczych złożonych z naukowców reprezentujących różne dziedziny wiedzy, poczynając od teoretyków informacji, poprzez specjalistów od algorytmów, programistów, a kończąc na językoznawcach, przekładoznawcach i filologach. Niestety, budowa systemu komputerowego przekładu, który byłby w stanie wyeliminować całkowicie człowieka i tym samym sprawić, że zawód tłumacza stanie się w przyszłości zbędny, wciąż pozostaje swego rodzaju niedoścignionym ideałem [1]. Obecnie systemy komputerowego przekładu są realizowane przede wszystkim jako systemy całkowicie automatyczne, tzn. takie, na wejście których użytkownik zadaje gotowy tekst zapisany w języku wyjściowym, a na ich wyjściu oczekuje pojawienia się przekładu tego tekstu na wybrany język docelowy. Tego rodzaju w pełni automatyczny przekład jest wykonywany przez komputer najczęściej z wykorzystaniem metod regułowych bądź statystycznych, przy czym znane są także rozwiązania hybrydowe, stanowiące różnego rodzaju połączenia wybranych metod [2]. Innym, w opinii autorów, niezwykle obiecującym kierunkiem badań w dziedzinie komputerowego przekładu jest rozwijanie systemów komputerowego przekładu wspomaganych przez człowieka, które w angielskojęzycznej literaturze przedmiotu określane są terminem Human-Aided Machine Translation. W przypadku tego rodzaju rozwiązań użytkownik systemu przez cały czas jego działania w sposób aktywny uczestniczy w procesie przekładu, rozwikłując wszelkiego typu wieloznaczności języka naturalnego (leksykalne i składniowe), które stanowią podstawową przeszkodę stojącą na drodze do budowy w pełni użytecznych systemów komputerowego przekładu [3]. Przedmiotem niniejszego artykułu jest rozwijany obecnie przez autorów system komputerowego przekładu typu Human-Aided Machine Translation. System ten pomyślany jest jako system wielojęzyczny, który jest otw... więcej»

Iteracyjna metoda usuwania szumu impulsowego z obrazów cyfrowych (Adam Konieczka, Julian Balcerek, Adam Dąbrowski)
Podczas rejestracji obrazów z wykorzystaniem kamer i aparatów cyfrowych dochodzi do przekłamań wartości niektórych pikseli. Przekłamania te są widoczne jako zmniejszenie szczegółowości drobnych detali obrazu bądź jako niejednolity kolor na gładkich powierzchniach. Zapis oraz transmisja obrazów są także źródłem zmiany wartości poszczególnych pikseli. Takie przypadkowo zmienione piksele, określane jako szum impulsowy o zmiennych wartościach, są bardzo zauważalne dla ludzkiego oka [1, 2]. Do usuwania szumu impulsowego stosuje się wiele metod. Do najpopularniejszych należy filtracja medianowa, która skutecznie usuwa taki rodzaj szumu z gładkich powierzchni. Niestety, fragmenty o dużej szczegółowości, takie jak tekstury czy krawędzie, ulegają rozmyciu. W celu redukcji tego efektu zaproponowano filtry CWM (center weighted median filter) [3] oraz SWM (softswitching median filter) [4]. W ostatnich latach pojawiło się wiele zmodyfikowanych i udoskonalonych filtrów działających w oparciu o medianę. Do najistotniejszych można zaliczyć: peak-and-valley filter (PV) [5], extremum and median filter (EM) [6], minimummaximum exclusive mean filter (MMEM) [6] oraz pre-scanned minmax center-weighted filter (PMCW) [7] i decision-based median filters [8]. W artykule zaproponowano prosty i efektywny algorytm do wykrywania i usuwania szumu impulsowego wykorzystujący maskę o wymiarach 3×3 piksele. Wykrycie pikseli szumowych odbywa się w oparciu o dynamicznie dobierany próg detekcji, a odszumianie wykorzystuje filtrację medianową i uśrednianie. W dalszej części artykułu opisano sposób ustalania progu detekcji pikseli zaszumionych oraz metodę odszumiania pikseli uznanych za zaszumione. Rozdział "Przebieg i wyniki eksperymentów" prezentuje przeprowadzone eksperymenty oraz uzyskane wyniki odszumiania dla standardowych obrazów testowych wyrażone w decybelach, przykładowe odszumione obrazy oraz porównanie uzyskanych wyników z innymi, dostępnymi w literatu... więcej»

On designing a Nyquist fir filter of fractional group delay and phase delay (Ewa Hermanowicz, Miroslaw Rojewski )
Nyquist filters are crucial components in data communications [1]. Their traditional attributes are governed by the fulfilment of Nyquist condition. We wish to design a filter such that its impulse response satisfies the Nyquist first criterion [7] (1) where L is an positive integer, preferably odd, called the oversampling ratio. In digital (isochronous) signalling it indicates the number of discrete signal samples (Sa) per symbol (repetition) interval. Formula (2) expresses the Nyquist criterion in the normalized (fraction of sampling rate) frequency domain f, (2) A design of the frequency response H(f ) that satisfies the Nyquist conditions (1) and (2) is generally too restrictive and may not lead to a satisfactory filter. Moreover, the Nyquist filter conditions should be satisfied as closely as possible to minimize interference between successive data symbols (ISI) when channel distortion is absent. Also it is desirable to keep the length of the filter as small as possible to minimize the implementation cost. The goal of this paper is to formulate a novel concept for the Nyquist filter that has the additional ability to introduce a fractional sample delay otherwise referred to as subsample delay. Such a special filter has not been considered yet [2], [3], [4], [5], [6]. Hitherto in the literature the Nyquist filter and the fractional delay = - &#177; = = - = otherwise arbitrary 0, ( 1) / 2 , 1, 2, 3, 1, ( 1) / 2 [ ] n N mL m L n N h n ... więcej»

Global-extreme-training of specific neural networks to find laws ruling empirical data (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
A need to create symbolic descriptions of unknown laws governing a given set of empirical data and to model the data set features is encountered in many situations and concerns plenty of physical systems. First papers on applying particular neural networks with exp(.) and ln(.) activation functions to solve the problem under consideration ware reported in [1-8]. Recently, specific networks with reciprocal-function activation-operators have been proposed in [9], [10]. Such networks allow us to describe the data set behavior be means of rational or polynomial functions, where the latter can be regarded as a particular case of the rational one. Coefficients of the rational or polynomial functions are determined in a way of training the specific neural network. As compared to the previously presented networks, the reciprocal-function-based ones lead to simpler network structures, include a lower number of the network elements and enable more effective network learning. Despite the introduced improvements, learning the networks is still a problem, [11], [12], and we devote plenty of time to make progress in this field. Improving the training technique is the goal of our research and this is the issue to be presented in this paper. Learning problems connected with gradient calculations Neural network learning can be realized in a variety of ways [11-12]. There are methods that are good in finding global optimum and can effectively omit local extremes. Another group is made by techniques which are fast and well suited for local area operations. Ability to generalize the data set behavior outside the range of the training variables is another required feature of the learning methods. For example, so called gradient descent (GD) techniques, where gradient of an objective function is calculated, often fail in case of very large networks [12]. From our experience results that learning the networks under consideration by means of the GD... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Analiza wymagań pamięciowych dla podstawowej jednostki obliczeniowej w sprzętowej implementacji algorytmu dopasowania stereo typu "semiglobal" (Mikołaj Roszkowski, Grzegorz Pastuszak)
Algorytm dopasowania stereo działa na dwóch zrektyfikowanych obrazach przedstawiających jedną scenę. Rektyfikacja oznacza, że jeśli weźmie się pewien piksel na pierwszym obrazie, to odpowiadający mu piksel na drugim obrazie leży dokładnie w tej samej linii poziomej (o tej samej współrzędnej y). Bezwzględna wartość różnicy współrzędnych x odpowiadających sobie pikseli nazywana jest dysparycją i można wykazać że jest ona odwrotnie proporcjonalna do głębokości obiektu w scenie [1]. Celem algorytmu stereowizji jest przypisanie wartości dysparycji do każdego piksela i stworzenie tzw. mapy dysparycji. W literaturze znanych jest wiele algorytmów stereowizji. Generalnie można je podzielić na dwie grupy [2]: algorytmy decydujące jaka dysparycja powinna zostać przypisana do piksela tylko na podstawie jego najbliższego otoczenia (algorytmy lokalne), bądź na podstawie pewnej funkcji zdefiniowanej na całym obrazie (algorytmy globalne). Do pierwszej grupy należą np. algorytmy bazujące na dopasowaniu okna wokół piksela w jednym obrazie do pewnego okna w drugim obrazie za pomocą miar takich jak m.in. SAD [2], CENSUS [3]. Algorytmy te ze względu na swoją prostotę doczekały się wielu realizacji w układach FPGA. Ich implementacje są zazwyczaj szybkie, np. w [4] zaprezentowano system będący w stanie przetwarzać w sekundzie 230 ramek o rozdzielczości 640x480 i 64 poziomach dysparycji. Wadą algorytmów z tej grupy jest jednak zwykle gorsza jakość uzyskanej mapy dysparycji niż w przypadku algorytmów globalnych. W przypadku algorytmów globalnych najpopularniejsze bazują na "propagacji wierzeń" (belief-propagation) [5], bądź algorytmach" graph-cuts" [6]. Są to algorytmy bardzo wymagające pod względem obliczeniowym i przez to rzadko implementowane w sprzęcie. Istnieje jednak grupa algorytmów znajdująca się pomiędzy algorytmami globalnymi i lokalnymi. Są one oparte o programowanie dynamiczne na pewnym podzbiorze całego obrazu. Algorytmem z tej grupy da... więcej»

Optymalne algorytmy alokacji bitów w standardzie kompresji dźwięku MPEG-4 AAC (Grzegorz Brzuchalski)
Standard MPEG-4 Advanced Audio Coding (AAC) jest standardem kompresji dźwięku [1], w którym wykorzystuje się kilka nowych technik kodowania w porównaniu ze starszymi standardami [2]. Po pierwsze, koder transformuje sygnał z dziedziny czasu do dziedziny częstotliwości używając zmodyfikowanej transformaty kosinusowej (MDCT) o dwóch rozmiarach okien: długim 2048-próbkowym i serii ośmiu okien krótkich 256-punktowych odpowiednio dobranych dla sekwencji stacjonarnych i transjentowych. Drugim z głównych modułów kodera jest kwantyzator, a trzecim koder entropijny zrealizowany z użyciem kodowania Huffmana za pomocą predefiniowanych książek kodowych (HCB). Standard opisuje także dodatkowe (nieobowiązkowe) moduły, takie jak: Perceptual Noise Substitiution (PNS) odpowiedzialny za detekowanie szumu w koderze i odtwarzanie go po stronie dekodera, Temporal Noise Shaping (TNS) odpowiedzialny za kształtowanie szumu kwantyzacji, Long Term Prediction (LTP) odpowiedzialny za predykcje długoterminową oraz Gain Control - odpowiedzialny za stopień wzmocnienia poszczególnych pasm częstotliwościowych. Poprzednie prace autora skupiały się na rozwijaniu sprzętowego kodera w układach FPGA: MDCT [3] i kwantyzacji [4] [5], która dostosowywała tylko współczynniki kwantyzacji aby uzyskać założoną przepływność bitową. Transformata MDCT i kwantyzacja są to dwa najbardziej wymagające obliczeniowo moduły kodera AAC. Optymalizację MDCT pod względem sprzętowym opisano w artykule [3]. Złożoność kwantyzacji zależy od algorytmu pętli RD (rate-distortion). W niniejszej publikacji krótko przedstawiono kilka algorytmy przydziału bitów ich porównanie z dostępną literaturą oraz własne wyniki implementacji. Opis algorytmów kwantyzacji W algorytmach stratnej kompresji dźwięku często stosuje się model psychoakustyczny, który wykorzystuje zjawiska maskowania w dziedzinie częstotliwości i czasu oraz progu słyszalności. Wynikiem działania tego modelu jest krzywa maskowania. ... więcej»

Uproszczona metoda obliczania warunków pracy tranzystorów w rezonansowych wzmacniaczach mocy klasy DE (Juliusz Modzelewski)
Kluczowane rezonansowe wzmacniacze mocy w radiotechnice mogą pełnić rolę stopni mocy nadajników systemów radiowych z modulacją częstotliwości (FM) i fazy (PM) oraz modulatorów mocy w nadajnikach z modulacją amplitudy (AM). Obecnie modulatory amplitudy o dużej mocy są także stosowane w wysokosprawnych liniowych wzmacniaczach mocy pracujących w układzie EE R (Envelope Elimination and Restoration) wykorzystywanych w nadajnikach systemów cyfrowych. Natomiast w energoelektronice wzmacniacze kluczowane pełnią funkcję przetworników energii źródła prądu stałego w energię wielkiej częstotliwości, dlatego zamiast określenia wzmacniacz często używane jest określenie inwerter (np. [1, 2] albo falownik (np. [3, 4]. Ideę kluczowanego wzmacniacza rezonansowego klasy DE przedstawiono w 1975 roku (Żukow, Kozyriew [5]). W wzmacniaczu tym zostały wyeliminowane podstawowe wady rezonansowego wzmacniacza mocy klasy D [6, 7]. Powstawanie prądu skrośnego wskutek pokrywania się impulsów bramkowych usunięto poprzez zwężenie tych impulsów tak, aby w cyklu pracy wzmacniacza pojawił się czas martwy, w którym oba tranzystory mocy są wyłączone (rys. 1). Modyfikację taką można zrealizować m. in. poprzez sterowanie tranzystorów przebiegiem sinusoidalnym [6, 7]. Natomiast straty mocy wywołane włączaniem tranzystorów "pod napięciem" (non-Zero-Voltage Switching) i aktywnym ładowaniem i rozładowywaniem pojemności wyjściowych tranzystorów zostały wyeliminowane poprzez zastosowanie odstrojonego obwodu rezonansowego o charakterze indukcyjnym. Dzięki temu w czasie martwym pojemności te są przeładowywane bezstratnie prądem wyjściowego obwodu rezonansowego. Takie bierne przeładowywanie pojemności wyjściowych redukuje także szybkość narastania napięcia na tranzystorze wyłączonym, co ogranicza groźbę jego pasożytniczego włączenia (i w efekcie powstania prądu skrośnego). Wzmacniacz taki nazywany był początkowo wzmacniaczem klasy D ... więcej»

Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Demonstrator lekkiego monoimpulsowego radaru trójwspółrzędnego bliskiego zasięgu pasma L (Adam Konrad Rutkowski, Adam Kawalec)
Systemy radarowe bliskiego i bardzo bliskiego zasięgu mają bardzo duże znaczenie w zastosowaniach powszechnych jak i w zastosowaniach specjalnych. Należą do nich między innymi systemy tak zwanej obrony aktywnej obiektów przed pociskami przeciwpancernymi. Celem obrony aktywnej jest uzyskanie co najmniej jednego z następujących efektów: - pocisk przeciwpancerny atakujący broniony obiekt zostanie zniszczony zanim dotrze do celu, - tor lotu pocisku przeciwpancernego zostanie zmieniony tak, że minie atakowany obiekt, - pocisk przeciwpancerny dotrze do atakowanego obiektu, ale zostanie uszkodzony w takim stopniu, że jego głowica bojowa nie przebije pancerza osłaniającego broniony obiekt. Osiągnięcie tych efektów wymaga jak najwcześniejszego uzyskania wiarygodnej informacji o tym, że chroniona strefa została naruszona, a obiekt jest atakowany. Na informację tę składają się: liczba atakujących pocisków, chwilowy kierunek i zwrot lotu pocisków, chwilowa odległość do każdego z tych pocisków. Do detekcji faktów ostrzelania pojazdu pociskami przeciwpancernymi mogą być stosowane sensory optoelektroniczne oraz elektromagnetyczne, a wśród nich lekkie urządzenia radiolokacyjne [1-3]. Systemy obrony, a w tym obrony aktywnej funkcjonują w warunkach nieprzewidywalnego zagrożenia oraz głębokiego deficytu czasu. W wielu przypadkach czas od chwili wystrzelenia pocisku przeciwpancernego do momentu dotarcia jego do celu nie przekracza 1,5 sekundy. W tym czasie system ochrony powinien wykryć fakt ostrzelania, ocenić stopień niebezpieczeństwa, wybrać najlepszy sposób przeciwdziałania oraz w odpowiednim momencie uruchomić środki obrony aktywnej, tak zwane destruktory, zwalczające atakujący pocisk przeciwpancerny. W przypadku systemów monitorowania obszaru pracujących w warunkach znacznego niedostatku czasu, duże znaczenie mogą mieć systemy radarowe w wersjach monoimpulsowych, zbudowane przy użyciu układów natychmiastowego pomiaru fazy NPF, układów n... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański&#8201;)
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

Metrologiczne aspekty toru pomiarowego spektrofotometru z fotopowielaczem (Zbigniew Krawiecki)
W metodach pomiarowych, w których sygnałem użytecznym jest promieniowanie optyczne, stosuje się specjalistyczną aparaturę, taką jak np.: spektrometry i spektrofotometry. Przyrządy te wykorzystuje się do pomiaru absorbancji, transmitancji, reflektancji, w badaniach jakościowych oraz ilościowych zawartości substancji, do wyznaczania właściwości optycznych materiałów [1-4]. Przykłady te można mnożyć, podając zastosowania z zakresu medycyny, przemysłu, nauki i wielu innych dziedzin. Pomiar natężenia promieniowania optycznego przechodzącego przez ośrodek lub odbijającego się od jego powierzchni jest zadaniem stosunkowo trudnym. Nierzadko użytkownicy przyrządów są przekonani, że pomiary z sygnałem optycznym należą do łatwych, a sprzęt "rozwiązuje" większość problemów metrologicznych. Bardzo często możliwości aparatury nie są wystarczające do wykonania poprawnych badań. Ważna jest świadomość i znajomość zachodzących zjawisk, gdyż ma to znaczenie dla poprawnego zinterpretowania wyników. Zjawiska, które występują na etapie realizacji pomiaru, mogą w różnym stopniu powodować "przekłamanie" otrzymywanych wyników i dlatego tak ważna jest wiedza o tych czynnikach. Rezultaty zamieszczone w pracy przedstawiają wybrane aspekty metrologiczne związane z torem pomiarowym spektrofotometru, które mogą mieć wpływ na wynik pomiaru transmitancji optycznej próbki materiału. Prezentowane wyniki dotyczą wykorzystania metody spektrofotometrycznej w pomiarach i zostały opracowane na podstawie danych uzyskanych z pomiarów spektrofotometrem dwuwiązkowym. Aparatura pomiarowa Obecne spektrofotometry to urządzenia konstrukcyjnie, z reguły bardzo złożone zarówno pod względem mechanicznym, jak i elektrycznym. Wyposażone są w magistrale komunikacyjne oraz oprogramowanie do obsługi przyrządu i rejestracji wyników. Ogólne dążenie do komputeryzacji technik pomiarowych również tutaj znajduje swoje odzwierciedlenie. Producenci oferują sterowane komputerowo stanowi... więcej»

O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 &#937;. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow&#8209;tie w szczelinowo pobudzany monopol. Z... więcej»

System akwizycji danych operacyjnych i pogodowych dla farmy fotowoltaicznej (Jacek Stępień, Konstanty W. Marszałek, Tomasz Matuska)
Farma fotowoltaiczna realizuje operację konwersji energii promieniowania słonecznego na energię elektryczną. W związku z koniecznością zapewnienia odpowiedniego poziomu nasłonecznienia paneli fotowoltaicznych, farmy budowane są w różnych, czasami odległych od terenów urbanizacyjnych miejscach. Jednocześnie systemy sterowania i nadzoru poprawności pracy systemu fotowoltaicznego wymagają posiadania często bardzo rozbudowanej infrastruktury komputerowej. Transfer danych do miejsc obsługi odpowiedzialnych za kontrolę stanowi istotny element systemu nadzoru nad prawidłowym funkcjonowaniem obiektu. Kompletne systemy sterowania i nadzoru są oferowane obecnie przez wielu producentów i nie stanowi żadnego problemu zbudowanie infrastruktury kontrolno-sterującej dla urządzeń pracujących na farmie [1-4]. Opisany w artykule system pomiarowy nie jest alternatywą dla rozwiązań tego typu, stanowi jakby pewne ich uzupełnienie. Opracowany, uniwersalny interfejs pomiarowy pozwala na dołączenie urządzenia do dowolnego układu czujnikowego, realizującego pomiary w trybie napięciowym lub prądowym, dzięki możliwości dopasowanie poziomu sygnału do zakresu optymalnego dla systemu akwizycji danych oraz transmisję za pomocą modemu GPR S (ang. General Packet Radio Service) do serwera realizującego wizualizację lub np. wyposażonego w aplikację do analizy efektywności pracy systemu fotowoltaicznego. System jest mobilny, niezależny od infrastruktury komputerowej farmy i bardzo elastyczny (możliwe jest rozbudowanie układu o kolejne moduły bez modyfikacji pozostałej części systemu). Został wykorzystany w pracach badawczych przy wdrażaniu wiatrowo- słonecznej elektrowni hybrydowej. Opis systemu fotowoltaicznego Opisywany system akwizycyjny testowany był na obiekcie przemysłowym tj. hybrydowej elektrowni wiatrowo-słonecznej budowanej w ramach realizacji projektu "Badania nad opracowaniem wytycznych, technik i technologii dla systemów kompensacji mocy biernej,... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Przekład komputerowy typu Human-Aided Machine Translation oparty na języku pośredniczącym (Zbigniew Handzel, Mirosław Gajer)
Przekład komputerowy jest interdyscyplinarną dziedziną wiedzy zaliczaną w skład szerszej dyscypliny - lingwistyki komputerowej. Za historyczny początek badań nad automatyzacją przekładu uznaje się wystąpienie w 1947 roku Amerykanina Warrena Weavera, który w swym słynnym memorandum wzywał wybitnych badaczy tamtej epoki do zajęcia się tą niezwykle pasjonującą, ale także niezmiernie skomplikowaną problematyką [1]. Pierwsza grupa badawcza zajmująca się automatyzacją przekładu została powołana na amerykańskim uniwersytecie MIT w 1952 roku. Z kolei w roku 1954 miał miejsce pierwszy, spektakularny, jak na owe czasy, pokaz działającego systemu komputerowego przekładu. Podczas rozważanego pokazu komputer dokonał automatycznego tłumaczenia kilkudziesięciu prostych zdań zapisanych w języku rosyjskim na język angielski. Na fali entuzjazmu, który zapanował po tym wydarzeniu, pojawiły się opinie, że w już niedalekiej przyszłości zawód tłumacza stanie się całkowicie zbyteczny, ponieważ cała dotychczasowa działalność translatorska zostanie powierzona komputerom [2]. Obecnie od omawianych wydarzeń upłynęło już prawie sześćdziesiąt lat, a stawiane wówczas prognozy bynajmniej jeszcze się nie spełniły. Przykład ten dowodzi, jak niezwykle trudną sprawą jest przewidywanie przyszłości i że tak na prawdę nigdy nie będziemy w stanie dokładnie przewidzieć naszej przyszłej wiedzy i bezpośrednio wynikającego z niej poziomu zaawansowania wybranych rozwiązań technicznych [3]. Dostępne w epoce nam współczesnej rozwiązania informatyczne w zakresie automatyzacji przekładu koncentrują się głównie wokół systemów w pełni automatycznych FAMT (ang. Fully-Automatic Machine Translation), w przypadku których ich użytkownik zadaje na wejście tekst zapisany w języku źródłowym, a na wyjściu tego rodzaju systemu oczekuje pojawienia się po pewnym czasie gotowego już przekładu tekstu wyjściowego na język docelowy. Niestety, jakość istniejących obecnie w pełni automatycz... więcej»

Ocena symetrii postawy w teście stabilografii nadążnej (Tomasz Łukaszewicz, Dariusz Kania, Zenon Kidoń, Krystyna Pethe-Kania )
Stabilografia jest metodą diagnostyczną, w ramach której rejestrowane są, a następnie analizowane trajektorie zmian sił nacisku stóp człowieka na płaszczyznę jego podstawy. Przyrządem umożliwiającym pomiar trajektorii stabilograficznych jest specjalizowane urządzenie sensoryczne zwane platformą stabilograficzną [1]. Dwupłytowa platforma stabilograficzna wraz z oryginalnym oprogramowaniem pozwalającym na przeprowadzenie badań przedstawionych w niniejszym artykule została opracowana w Instytucie Elektroniki Politechniki Śląskiej. Podstawowe dane związane z konstrukcją platformy, jak i sposobem parametryzacji trajektorii stabilograficznych można znaleźć w pracach [1, 13, 15]. Z systemowego punktu widzenia układ utrzymywania równowagi ciała człowieka stanowi trójwejściowy blok regulacji [2]. Jego sygnały wejściowe generowane są przez układy: wzrokowy, przedsionkowy oraz somatosensoryczny (proprioceptywny i skórny). Układ wzrokowy odpowiedzialny jest za sygnalizację zmian położenia przestrzennego ciała względem otoczenia. Układ przedsionkowy dostarcza informacji na temat orientacji ciała względem wektora pola grawitacyjnego. Układ somatosensoryczny jest natomiast źródłem danych dotyczących fizycznego kontaktu kończyn dolnych z powierzchnią reakcyjną podłoża [3, 4]. System nerwowy, na bazie dostarczanych informacji, wytwarza impulsy sterujące wybranymi partiami układu mięśniowego, kompensując zaburzenia stabilności posturalnej. Należy podkreślić, iż system stabilizacji posturalnej człowieka jest w istocie układem samoistnie niestabilnym, stale wytrącanym ze stanu równowagi i jednocześnie kompensującym powstałe dewiacje [5]. Platforma stabilograficzna umożliwia rejestrację przemieszczeń punktu przyłożenia wypadkowej sił nacisku stóp na płaszczyznę podparcia - COP (ang. Center of Pressure). Ze względu na fizyczne trudności w realizacji pomiaru przemieszczeń rzeczywistego środka ciężkości ciała człowieka zastępczo mierzona jest tra... więcej»

Modeling of properties of multilayer inductances fabricated in different microelectronics technologies (Grzegorz Błąd, Mariusz Pilecki, Jerzy Potencki, Grzegorz Tomaszewski&#8201;)
The planar inductors are more and more frequently used in modern electronics, for example in different mobile devices, RFID systems, electromagnetic converters for energy harvesting or hard disk writing heads. Basic requirements for these types of devices are a small size and a high level of integration while maintaining theirs full usefulness. Practically, all microelectronic technologies enable the manufacture of planar inductors in the form of multilayer structures, which results in essential increasing of their inductance. In addition, these types of inductive components have very good technical parameters, such as quality factor (Q), relative high SRF (self-resonant frequency), and their production process is less complex than traditional coils [1-5]. Currently, there are many programs for design and simulation of inductive components on the market. But only a few of them offer the opportunity to go through the full design phase starting to build a computer model through analysis and simulation to the development process. In this work Mentor Graphics Expedition Enterprise software and particularly IE3D package have been used. It is highly-professional software designed especially for the complex design of electronic circuits performed on PCB, but it can be successfully used for the design of multilayer structures implemented in other technologies (e.g. thin-, thick-film, LTCC). IE3D is an integrated full-wave electromagnetic simulation and optimization package for the analysis and design of 3D ... więcej»

Przegląd formatów podpisu elektronicznego (Robert Poznański, Karol Szacki, Daniel Wachnik, Łukasz Stroiński)
Aktualnie na rynku podpisu elektronicznego uzyskują duże znaczenie cztery standardy definiujące w jaki sposób zapisać podpis elektroniczny. Są nimi CAdES, XAdES, PAdES oraz ASiC opisane w standardach wydawanych przez ETSI (European Telecommu- nications Standards Institute). Są to standardy opisujące tzw. zaawansowany podpis elektroniczny, który wyróżnia się tym, że spełnia wymagania dotyczące takiego rodzaju podpisu zdefiniowane w Dyrektywie 99/93/WE. W każdym podpisie elektronicznym muszą zostać zawarte podstawowe informacje identyfikujące podpisującego, oraz o przyjętej technice jego wygenerowania. Zalecane jest także załączenie certyfikatu użytego do złożenia podpisu. W strukturze samego podpisu zawierają się również odnośniki do danych, które są takim podpisem opatrzone. Wszystkie te informacje są wykorzystywane w czasie procesu weryfikacji ważności podpisu. Aplikacja weryfikująca musi odczytać informacje zawarte w pliku z podpisem. Zestandaryzowanie oraz określenie miejsc w jakich się znajdują informacje, umożliwia rozpoznawanie podpisu pomiędzy aplikacjami. Dla przykładu, konieczne jest zawarcie informacji jaka została użyta funkcja skrótu, najczęściej jest to funkcja z rodziny SHA [1] oraz jaki jest algorytm podpisu, obecnie powszechnie stosowany jest algorytm RSA [2] z długością klucza 2048 bitów. Informacje zawarte w certyfikacie pozwolą na zbudowanie i zweryfikowanie ścieżki certyfikacji. Mogą także wskazywać mie... więcej»

Real-time gas recognition system based on the gas sensor array responses and portable computer Raspberry PI (Ewa Ardanowska, Paweł Kalinowski, Łukasz Woźniak, Grzegorz Jasiński, Piotr Jasiński)
Artificial olfaction systems based on gas sensors and data analysis system are potentially an attractive instruments for a large number of applications, where precise detection of measured volatile compounds is required. They can be used for air quality monitoring [1], in medicine, for detection of diseases [2] or in food industry, i.e. for monitoring the freshness of products [3]. Such instruments, commonly referred to as electronic noses, have the ability for qualitative and quantitative characterization of target gases. In electronic nose systems instead of single sensors, an array of partially selective sensors is used. The response of the array generates a multidimensional dataset, which is then processed using various feature extraction and pattern recognition methods. The most commonly used methods in e-nose systems are Principal Components Analysis (PCA), Partial Least Squares (PLS), Support Vector Machine (SVM) various type of artificial neural networks (ANN) like i.e. Backpropagation Neural Network (BPNN), Radial Basis Function Neural Networks (RBF) or Probabilistic Neural Networks (PNN) [4-5]. Although the properties of electronic noses are very attractive for practical applications, they are often still limited to the laboratory implementations. This is related to the issue of long term stability, which is the most challenging problems in such instruments. The drift phenomenon causes a problem with maintaining the proper ability of precise determination of the target gases in the long period of time. Another issue is connected with complexity of some concepts. The proposed calculation algorithms are rather complicated, i.e. d... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»