profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-10

zeszyt-4193-elektronika-konstrukcje-technologie-zastosowania-2014-10.html

 
W numerze m.in.:
Kompensacja dryfu w skaningowym mikroskopie tunelowym przeznaczonym do badań nanostruktur grafenowych FoMaMet (Krzysztof Gajewsk, Rafał Kramek, Daniel Kopiec, Teodor Gotszalk)
Badania powierzchni we współczesnej praktyce pomiarowej wymagają precyzyjnych i bardzo czułych urządzeń, dokonujących pomiaru z atomową rozdzielczością. Spośród wielu obecnie dostępnych technik mikroskopowych skaningowa mikroskopia tunelowa (ang. Scanning Tunneling Microscopy, STM) zaprezentowana w latach 80-tych ubiegłego wieku przez Binniga i in. [1] spełnia powyższe wymagania. Związane jest to między innymi z eksponencjalną zależnością prądu tunelowego od odległości próbka-sonda pomiarowa. Powyższa zaleta mikroskopu STM może być źródłem niekorzystnych zjawisk związanych z dryfem termicznym czy relaksacją zastosowanych aktuatorów piezoelektrycznych. Objawiać się to będzie przesuwaniem się skanowanego obszaru w osi X oraz Y pomiędzy kolejnymi pomiarami czy też zbliżaniem/oddalaniem ostrza pomiarowego od mierzonej powierzchni (dryf w osi Z). O ile wpływ dryfu w osiach X/Y może zostać zredukowany przykładowo poprzez skanowanie w większym polu, a następnie przetworzenie uzyskanego obrazu czy stosowanie układów niwelujących dryf, o tyle w osi Z jest to utrudnione ze względu na obecność pętli sprzężenia zwrotnego. W pracy przedstawiono problem dryfu występującego w mikroskopie STM. Na przykładzie pomiarów wysokozorientowanego grafitu pyrolitycznego (ang. Highly Oriented Pyrolyric Graphite, HOPG) omówiono jego wpływ na pracę mikroskopu, oraz możliwe zakłócenia procedury pomiarowej. Zaproponowano modyfikację konstrukcji mikroskopu STM tak, aby szkodliwy wpływ dryfu termicznego uległ minimalizacji. W tym celu wykonano układ elektroniczny z precyzyjnym przetwornikiem cyfrowo-analogowym (ang. Digital-Analog Converter, DAC) i porównano go z rozwiązaniem komercyjnym. Przedstawiono również możliwości rozszerzenia opracowanego systemu. Dryf w skaningowym mikroskopie tunelowym Dryf w skaningowym mikroskopie tunelowym może pochodzić z następujących źródeł: - Dryf termiczny całej głowicy STM - w wyniku poboru prądu przez zastosowa... więcej»

Zastosowanie metody IPD do syntezy warstw c-AlN (Rafał Chodun, Katarzyna Nowakowska -Langier, Sebastian Okrasa, Piotr Firek, Jan Szmidt, Krzysztof Zdunek)
Azotek glinu należy do grupy faz międzywęzłowych o rosnącym zainteresowaniu naukowym i inżynierskim. Pod względem fazowym cechuje go monotropia, tzn występuje w dwóch zasadniczych odmianach: stabilnej termodynamicznie strukturze wurcytowej (h-AlN, w-AlN) oraz metastabilnej w warunkach normalnych odmianie kubicznej o strukturze blendy cynkowej lub soli kuchennej (c-AlN, rs-AlN). Struktury te cechują wartości parametrów sieci, odpowiednio: a = 3.11 A i c = 4.98 A dla odmiany stabilnej [1] lub 4.38 A dla odmiany kubicznej [2]. W przypadku h-AlN przerwa energetyczna ma charakter prosty o wartości ok. 6.2 eV podczas, gdy przerwa energetyczna w odmianie metastabilnej jest skośna a podawane w literaturze jej wartości zawarte są w przedziale od 4.3 eV do 5.4 eV [2-4]. Właściwości dielektryczne azotku glinu w odmianie stabilnej takie, jak: oporność właściwa ok. 1013 Ohmcm [5], napięcie przebicia ok. 14 MV/m [6], wysoka przewodność cieplna ok. 320 W/mK [7], stabilność chemiczna aż do 2200°C [8], ale przede wszystkim izomorficzność fazowa z azotkiem galu i azotkiem indu powodują, że materiał ten znalazł zastosowanie w elektronice i optoelektronice na bazie GaN (np. w strukturze tranzystora HEMT [9]). W technologii warstw AlN wykorzystuje się zarówno metody bezplazmowe (np. MOCVD [10-14]), jak i plazmowe, z których najpowszechniej stosowaną jest metoda rozpylania magnetronowego (np. [15-18]). Do syntezy warstw AlN wykorzystywana jest także metoda impulsowego parowania/ablacji pod wpływem wzbudzenia ciała stałego fotonami (Pulse Laser Deposition, PLD, np. [19-22]). Typowym produktem syntezy po zastosowaniu ww. metod jest azotek aluminium w odmianie stabilnej. W ostatnim okresie obserwuje się jednak rosnące zainteresowanie odmianą metastabilną c-AlN, której technologia nastręcza jednakże znaczne trudności. Według [23] można oczekiwać, że azotek kubiczny ze względu na większa symetrię krystaliczną w porównaniu do azotku heksagonalnego po... więcej»

Przestrzennie skorelowana, submikrometrowa analiza właściwości morfologicznych, mechanicznych i chemicznych kompozycji epoksydowej domieszkowanej nanokrzemionką (Andrzej Sikora, Łukasz Bednarz, Joanna Warycha, Leszek Moroń)
Kompleksowe badania materiałów, a w szczególności tzw. nanomateriałów w skali submikrometrowej pozwalają na uzyskanie cennych informacji na temat ich właściwości. Zastosowanie takich narzędzi jak mikroskopia elektronowa [1, 2] oraz mikroskopia bliskich oddziaływań [3, 4] pozwala na uzyskanie szerokiego spektrum danych na temat właściwości m.in.: morfologicznych [5], mechanicznych [6, 7], czy też chemicznych [8, 9]. Rosnąca dostępność i popularność tych technik pomiarowych w znaczącym stopniu wpłynęła na dynamiczny rozwój współczesnej inżynierii materiałowej [10]. Intensywne badania nad nanomateriałami izolacyjnymi podyktowane są zapotrzebowaniem rynku energetycznego na elementy charakteryzujące się zwiększoną odpornością na zabrudzenie oraz działanie czynników atmosferycznych (promieniowanie słoneczne, temperatura, wilgotność), lepszą wytrzymałością elektryczną, odpornością na działanie łuku elektrycznego, mniejszą masą czy też wreszcie niższą energochłonnością w procesie wytwarzania itd. [11-14]. Obiecujące w tym zakresie są kompozyty polimerowe z dodatkiem tzw. nanowypełniaczy, które ze względu na dużą powierzchnię interfazy z materiałem matrycy, radykalnie zmieniają jej parametry. Jedną z grup materiałów, które są obiektem zainteresowań w kontekście wyżej wspomnianych wymagań, są kompozycje epoksydowe zawierające nanodomieszki (np. krzemionka czy też montmorylonit). Ich badania realizowane są zarówno w skali makroskopowej, w celu weryfikacji finalnych parametrów produktów, jak również w nanoskali, aby ocenić wpływ parametrów poszczególnych procesów technologicznych na strukturę materiału i jego właściwości. Należy zwrócić uwagę na fakt, iż wieloetapowe badania właściwości powierzchni próbek w nanoskali z wykorzystaniem różnych metod pomiarowych, przy braku odpowiedniego rozwiązania umożliwiającego precyzyjne pozycjonowanie próbki, pociągają za sobą ryzyko realizacji pomiarów w różnych lokalizacjach. Ze względu na lokaln... więcej»

Wymagania konstrukcyjne dla urządzeń elektroenergetycznej automatyki zabezpieczeniowej zgodnych z postanowieniami dyrektyw WE (Jerzy Chudorliński)
Elektroenergetyczna automatyka zabezpieczeniowa EAZ obejmuje zespół urządzeń przeznaczonych do: kontroli procesów wytwarzania, przesyłania, rozdzielania i użytkowania energii elektrycznej. Odbywa się to poprzez sterowanie aparaturą łączeniową i zabezpieczania elementów systemu elektroenergetycznego. Ważna też jest rejestracja stanów pracy obiektów oraz wizualizacja podstawowych parametrów elektrycznych obiektów systemu. Od tych urządzeń wymaga się wysokiej niezawodności podczas wykonywania zadań w całym okresie eksploatacji, jak i stabilnej pracy niezależnej od czynników środowiska zewnętrznego. Jednym z najważniejszych wymagań jest wybiórczość i czułość działania zabezpieczeń, z wbudowanymi algorytmami automatyki. Pozwala to na selektywne wyłączanie odcinków linii lub obiektów elektroenergetycznych. Automatyka ta powinna zapewniać również bezpieczeństwo personelu obsługującego niezależnie od warunków środowiskowych. Osiąga się to poprzez odpowiednią konstrukcję i instalację zgodną z wymaganiami przepisów prawnych. Dlatego też, urządzenia te powinny być konstruowane zgodnie z aktami normatywnymi dotyczącymi bezpieczeństwa i kompatybilności elektromagnetycznej dla tego typu urządzeń. Aby to osiągnąć urządzenia EAZ powinny być przystosowane do pracy w przemysłowym środowisku elektromagnetycznym, charakteryzującym się dużymi wartościami natężenia prądów i towarzyszących im pól magnetycznych z załączaniem obwodów o dużej indukcyjności i pojemności. Aparatura ta instalowana jest w stacjach elektroenergetycznych i elektrowniach które są typowymi środowiskami przemysłowymi. Urządzenia te typu podlegają ocenie zgodności z dyrektywami niskiego napięcia 2006/95/WE (LVD) i kompatybilności elektromagnetycznej 2004/108/WE (EMC) oraz często z dyrektywą dotyczącą urządzeń i systemów ochronnych przeznaczonych do użytku w przestrzeniach zagrożonych wybuchem 94/9/WE (ATEX). Ostatnio coraz częściej wymagane jest zapewnienie bezpieczeństwa fu... więcej»

Linux Days w Polsce
7 października br. odbyła się w Warszawie doroczna konferencja poświęcona otwartym rozwiązaniom oprogramowania sieci komputerowych (open source). Spotkania Linux Days w Polsce zaczynają się zwykle od Warszawy, gdzie w ramach europejskiego roadshow SUSE Linux Expert Days EMEA 2014 & 2015 firma przygotowuje wiele prezentacji technicznych i biznesowych, demonstracje produktów oraz pokazy rozwiązań SUSE. SUSE Linux jest kompletnym systemem operacyjnym zbudowanym na bazie jądra Linux. W jego skład, oprócz samego jądra, wchodzą podstawowe programy i usługi takie, ... więcej»

Zobacz wszystkie publikacje »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Synteza nowych poliazometin dla zastosowań w fotowoltaice polimerowej (Kacper Parafiniuk, Agnieszka Iwan, Igor Tazbir, Lech Górecki)
Poprzez reakcję polikondensacji dialdehydów oraz diamin aromatycznych można w prosty sposób otrzymywać polimery o skoniugowanych wiązaniach TT - poliazometiny (poliiminy). Sprzężenie zapewniają powstające podwójne wiązania aldiminowe. Tego typu związki można uważać za półprzewodniki organiczne, podobnie jak szeroko badane politiofeny czy też polifenylowinyleny, interesujące z punktu widzenia elektroniki organicznej, także fotowoltaiki [1, 2]. Podstawową wadą poliazometin (PAZ) jest ich słaba rozpuszczalność [1, 2] w większości rozpuszczalników organicznych, co jest niezmiernie uciążliwe przy wytwarzaniu ogniw fotowoltaicznych. Dodatkowo otrzymywane PAZ wykazują stosunkowo niskie masy cząsteczkowe, w porównaniu do innych polimerów przewodzących, co ogranicza ich praktyczne zastosowania. W celu zwiększenia rozpuszczalności wprowadza się do struktury sprzężonego polimeru ugrupowania boczne - długie, często rozgałęzione łańcuchy alifatyczne lub grupy o charakterze objętościowym (np. cardo) [3, 4]. Niestety modyfikacja budowy chemicznej poliazometin nie zawsze przynosi tak zadowalający efekt jak w przypadku innych sprzężonych polimerów. Poliazometiny są wciąż niedostatecznie zbadaną grupą związków dla zastosowań w fotowoltaice, zatem istnieje potrzeba prowadzenia nad nimi dalszych badań zarówno podstawowych jak i zmierzających w kierunku zastosowań [1, 2]. W niniejszej pracy przedstawione zostały cztery nowe poliazometiny dla zastosowania w objętościowych polimerowych ogniwach fotowoltaicznych. Określone zostały podstawowe właściwości związków takie jak rozpuszczalność, termostabilność, absorpcja w zakresie widzialnym i bliskim nadfiolecie (zarówno w roztworze jak i cienkiej warstwie). Skonstruowano polimerowe objętościowe ogniwa fotowoltaiczne, w których komponent donorowy warstwy aktywnej stanowiła poliimina, akceptorowy z... więcej»

Ograniczenie zjawiska pustek w spoinach lutowniczych wykonanych metodą próżniowego lutowania kondensacyjnego (Beata Synkiewicz, Krzysztof Witek, Agata Skwarek)
Podstawowe cechy próżniowego lutowania kondensacyjnego Lutowanie kondensacyjne znane również jako lutowanie w parach nasyconych (ang. Vapor Phase Soldering VPS) wykorzystuje do podgrzania lutowanych elementów energię cieplną par uwolnioną podczas kontaktu z nimi. Pary są wytwarzane przez podgrzanie cieczy o dużej gęstości, która posiada stały punkt wrzenia. Kondensacja par trwa tak długo dopóki element nie osiągnie temperatury par. Ze względu na dużą gęstość par, warstwa ciekłej substancji wypiera tlen z powierzchni elementu. W efekcie tego mamy do czynienia z procesem podgrzewania i lutowania w środowisku pozbawionym tlenu. Przekazywana ilość ciepła jest liniowa w stosunku do dostarczonej energii cieplnej. Po wyjęciu płytek z obszaru grzania, w ciągu kilku sekund następuje odparowanie ciekłej warstwy z modułów, bez osadu, gdyż ciecz jest obojętna. Podstawowe zalety do lutowania w fazie gazowej są następujące: - lutowanie odbywa się w atmosferze beztlenowej, eliminując np. potrzebę stosowania azotu, - gwarantowana jest kontrola maksymalnej temperatury w komorze lutowniczej dzięki własnościom fizycznym zastosowanej cieczy - typowo 230 st. C do lutowania bezołowiowego oraz 200 st. C do lutowania z zastosowaniem spoiw ołowiowych, co skutkuje, także szczególnie dla lutowania bezołowiowego, o wiele węższym "oknem temperaturowym" procesu, - lepszy transfer ciepła dzięki wykorzystaniu do tego celu cieczy zamiast powietrza lub azotu, a w związku z tym brak miejscowych przegrzań, efektu "cienia", a także obojętność na kolor, materiał, objętość i masę lutowanych elementów elektronicznych, - elastyczna i łatwa kontrola temperatury lutowanych elementów o zróżnicowanej pojemności cieplnej aż do osiągnięcia temperatury topnienia, - zmniejszenie pustek (ang. "voids") w spoinach lutowniczych przez zastosowanie w piecu sekcji próżniowej, - ograniczenie ilości wad lutowniczych. Lutowanie elementów w faz... więcej»

Międzynarodowy Rok Światła 2015 (Ryszard S. Romaniuk)
Wydarzenie bez precedensu - Międzynarodowy Rok Światła 2015 jest interdyscyplinarnym projektem edukacyjnym i popularyzacyjnym, o charakterze globalnym, firmowanym przez UNESCO a organizowanym na całym świecie przez ponad 100 głównych partnerów, w postaci uznanych instytucji naukowych i technicznych, uczelni, stowarzyszeń zawodowych, fundacji, organizacji pozarządowych, oraz internetowych portali społecznościowych. Etymologia słowa światło jest prawdopodobnie prehistoryczna, łacińskie lux, greckie φως, ale także divine light, fiat lux. Słowo optyka [ὀπτική] natomiast, wywodzi się ze starożytnej Grecji i oznacza "wygląd". Głównym nurtem tematycznym MRŚ2015 będzie zapewne oświetlenie. Z jednej strony mamy do czynienia z gwałtownie zagęszczającym się oświetleniem w obszarach wysoce zurbanizowanych w krajach rozwiniętych, wręcz z problemem zanieczyszczenia środowiska sztucznym światłem w pewnych obszarach, a z drugiej strony należy pamiętać, że ponad 25% ludzkości świata żyje całkowicie poza zasięgiem sieci elektrycznej. Światło - jeśli oświetlenie to i niedoświetlenie. Zagadnieniem niedoświetlenia strukturalnego (zaniedbanie?, wstydliwy problem, ale także wyzwanie) wielu regionów naszej planety zajmuje się efektywnie, w miarę swoich możliwości, stowarzyszenie GOGLA [Gobal-Off-Grid-Lighting- Association.org]. W Polsce aktywnym uczestnikiem MRŚ2015, i koordynatorem części działań naukowo-technicznych NT środowiska, jest Polskie Stowarzyszenie Fotoniczne [photonics.pl]. Światło i życie. Światło pełni kluczową rolę w życiu człowieka. Światło wykształciło nasz zmysł wzroku. Bez światła nie istniałoby nasze środowisko życia. Słońce jest głównym źródłem światła dla nas. 44% energii elektromagnetycznego promieniowania słońca, które dochodzi do Ziemi, znajduje się w zakresie widzialnym (umownie zakres długości fal - 400-700 nm). Technologie bazujące na świetle, określane nazwą fotonika, de... więcej»

Sensor wodoru na bazie TiO2 - model oddziaływania (Barbara Łysoń -Sypień, Katarzyna Zakrzewska)
Procesy adsorpcji fizycznej i chemicznej zachodzące podczas oddziaływania pomiędzy cząsteczkami gazu, a ciałem stałym odgrywają ważną rolę w mechanizmie detekcji, wpływając w sposób bezpośredni na funkcjonowanie urządzeń wykrywających określony gaz. Dzięki temu możliwe jest monitorowanie stanu otaczającej atmosfery i ostrzeganie na wypadek pojawienia się gazów niebezpiecznych. Powszechny wzrost zainteresowania nanomateriałami do konstrukcji elementu gazoczułego sensora wynika z obserwowanej poprawy właściwości sensorowych oraz z przekonania, że wykorzystanie nanomateriałów w tej dziedzinie przyczyni się do rozwoju sensoryki. Dwutlenek tytanu z powodu stabilności jak również znacznych i odwracalnych zmian oporu elektrycznego pod wpływem gazów redukujących i utleniających o intencjonalnie zmienianej koncentracji w atmosferze odniesienia jest jednym z podstawowych tlenków metali służących do detekcji gazów. W literaturze można odnaleźć przykłady wykorzystania TiO2 m.in. do detekcji: H2, alkoholi, CO, NH3, NO2, czy par organicznych [1-4]. W tym celu wykorzystywane są modyfikowane materiały na bazie TiO2 w postaci: nanoproszków, nanorurek, nanodrutów i nanowłókien. Pomimo tego, że dwutlenek tytanu jest powszechnie znanym związkiem mogącym służyć do detekcji gazów, nadal brak systematycznych badań w dziedzinie wpływu minimalizacji rozmiarów krystalitów na wartość oporu elektrycznego oraz dynamikę jego zmian w wyniku procesu chemisorpcji cząsteczek gazów redukujących lub utleniających, jak to zostało zaobserwowane w przypadku SnO2 [5]. Większość istniejących modeli opisuje procesy adsorpcji gazów na powierzchni dwutlenku cyny [6-10]. Modeli tych nie można jednak zastosować do opisu oddziaływania gazu z powierzchnią dwutlenku tytanu z uwagi na znaczne różnice we własnościach elektronowych obu tlenków. Mając na uwadze taki stan rzeczy, celem pracy było określenie mechanizmu oddziaływania nanomateriałów na bazie TiO2 z wodorem. Zastos... więcej»

Badanie długotrwałej stabilności czasowej monochromatycznych diod LED w zastosowaniach OSL (Ewa Mandowska, Arkadiusz Mandowski, Bartosz Nitsze)
Optycznie stymulowana luminescencja (OSL) jest metodą coraz częściej stosowaną w dozymetrii promieniowania jonizującego [1-3]. Obecnie, już miliony osób na świecie korzystają z niezawodnych i niedrogich detektorów OSL. Do odczytu dawki pochłoniętego promieniowania używa się specjalnych czytników OSL, w których detektor poddany działaniu światła o odpowiedniej energii - najczęściej w zakresie widzialnym - emituje luminescencję - zwykle w zakresie UV - proporcjonalną do pochłoniętej dawki. Warunkiem przeprowadzenia rzetelnych pomiarów jest duża stabilność stymulującego światła. Ze względów praktycznych, w charakterze źródeł światła używa się często monochromatycznych diod LED. Niestety, tylko niektóre z nich nadają się do zastosowań w metodzie OSL. Parametry podawane przez producentów są niepełne i dalece niewystarczające do zastosowań naukowo-badawczych. Z tego względu konieczne jest przebadanie różnych diod i wyselekcjonowanie odpowiednich egzemplarzy. Istotnymi parametrami są, między innymi, stabilność intensywności świecenia i stabilność spektralna diody, liniowość zmian ilości emitowanego światła w funkcji natężenia płynącego przez diodę prądu oraz stabilność jej temperatury podczas pomiarów. Wyniki Diody wykorzystywane w pomiarach OSL do stymulacji detektora muszą się charakteryzować dużą gęstością promieniowania optycznego i małym kątem świecenia, by maksymalnie duża część emitowanego światła padała na próbkę o średnicy 5-15 mm, bez stosowania dodatkowych soczewek skupiających. Stosuje się tylko diody monochromatyczne, dobrane do rodzaju detektora (w praktyce emisja LED ma szerokość ok. 50 do 100 nm), których pasmo emisji dodatkowo ograniczamy filtrami krawędziowymi. Spośród wielu oferowanych na rynku diod wybrane zostały te, które spełniały wyżej wymienione wymogi. Wybrane do badań diody, wraz z podstawowymi parametrami przedstawia tabela 1. Układ pomiarowy wykorzystany do przeprowadzenia badań składał się ze stabili... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
60 lat Wydziału Elektrycznego (Janusz Zarębski)
W bieżącym roku Wydział Elektryczny Akademii Morskiej w Gdyni (AMG) obchodzi 60-lecie swojego istnienia. Nasz Wydział został utworzony 1 kwietnia 1954 roku w Państwowej Szkole Morskiej, przekształconej w 1969 roku w Wyższą Szkołę Morską w Gdyni (od 2002 roku Akademia Morska w Gdyni). Jest to jedyny wydział elektryczny w polskiej uczelni morskiej. Zgodnie z rankingiem szanghajskim Akademia Morska w Gdyni zajmuje piąte miejsce w świecie i pierwsze miejsce w Europie wśród uczelni morskich. Podstawowym zadaniem Wydziału Elektrycznego AMG jest kształcenie oficerów marynarki handlowej i przygotowanie studentów do pełnienia funkcji oficera elektroautomatyka okrętowego lub radioelektronika. Kształcenie to jest realizowane zgodnie ze... więcej»

The morphology and optical properties of silicon etched with bimetallic catalysts (Aneta KĘDRA, Robert P. SOCHA, Małgorzata ZIMOWSKA, Piotr PANEK, Lilianna SZYK-WARSZYŃSKA, Marek LIPIŃSKI, Piotr WARSZYŃSKI)
For the solar cells, which principle of operation is based on the light absorption, every energy loses pose a problem. Namely, reflectivity of the silicon surface used for photovoltaic cell production is one of the factors that needs to be minimized to approach the required absorption properties. The mitigation of the reflectivity is possible in two ways: by the use of an antireflective layer and/or by creation of a specific texture on the silicon surface. Both methods are effective but the texturization shows more advantages. The etching processes with the use of acid or alkaline systems are applied for the latter purpose [1, 2]. Moreover, the wet Metal- Assisted Chemical Etching (MAE) enables control of cross-sectional shape, diameter, length, doping type, doping level and the orientation of silicon nanostructures [3]. It is also possible to accelerate the surface recombination velocity due to increase of the silicon surface area [1]. Additionally, the textured surface allow for absorption of the reflected radiation resulting in an increase of the overall illumination density. The oxidant reduction, which occurs on the surface of metal, is an initial process of MAE. As a result, holes are generated and diffuse through the meta... więcej»

Mikrostruktura i własności mechaniczne miedzi i jej stopów wygrzanych oporowo (Mariola Spalik, Barbara Kucharska, Michał Krzywiecki)
Miedź, jak i jej stopy, posiadają wiele zalet dzięki którym jest możliwe ich szerokie zastosowanie w większości gałęziach przemysłu. Najważniejsze spośród nich to bardzo dobra przewodność elektryczna i cieplna, odporność na korozję atmosferyczną i w wodzie morskiej, możliwość obróbki mechanicznej i cieplnej, dobra ciągliwość i wytrzymałość [1, 2]. Istotnym dla wszechstronnych zastosowań jest ponadto możliwość łączenia tych stopów w procesach lutowania i spawania oraz ich diamagnetyzm [3, 4]. Właściwości miedzi i jej stopów, w tym przewodnictwo elektryczne i rezystywność, są w ścisłym związku z ich składem chemicznym i umocnieniem [5, 6]. Umocnienie z kolei zależy od stanu struktury, np. stopnia dyspersji faz i deformacji mikrostruktury spowodowanych warunkami wytworzenia [7, 8]. Zabiegi montażowe takie jak np. lutowanie, ale również warunki eksploatacyjne, mogą powodować zmiany mikrostruktury wyrobów metalowych a co za tym idzie ich właściwości mechaniczne i fizyczne. Przykład takich zmian mikrostruktury przedstawiono na ry... więcej»

Czasopisma NT, indeksy, cytowania, bazy danych, wydawnictwa cyfrowe, bibliometria. Część 2 (Ryszard S. Romaniuk)
W części pierwszej artykułu omówiono pobieżnie kilka następujących zagadnień: czasopisma NT w erze dynamicznych mediów cyfrowych, wersja papierowa a bazodanowa czasopism, wirtualne czytelnie, zdrowe ambicje lokalnych czasopism NT wejścia do globalnych baz danych, polityka ustawodawcy dotycząca rynku wydawniczego czasopism naukowo-technicznych w kraju, otwarte wydawnictwa cyfrowe, czasopisma międzynarodowych organizacji NT, krajowe czasopisma NT, krajowy rynek wydawniczy czasopism NT, cytowania, pozycjonowanie (lokowanie) czasopism, indeksy bibliometryczne, licencjonowanie prawno-autorskie CCL, e-wydawnictwa krajowych czasopism NT - pytania z odpowiedziami i bez. W części drugiej ten pobieżny wywód jest kontynuowany z ukierunkowaniem na poważny dylemat wyboru czasopism wobec ryku wydawniczego otwartego i komercyjnego. Ponadto przedstawiono listę baz danych e-nauki i bibliograficznych oraz glosariusz wybranych terminów bibliograficznych. Ponadto powtórzono znaczne fragmenty wstępu do części pierwszej. W kraju wydawanych jest co najmniej kilkadziesiąt, liczących się także za granicą, lokalnych czasopism naukowo- technicznych (NT). Część z nich, wydawanych w języku angielskim, posiada międzynarodowe indeksy wydawnicze. Żadne z nich jednak nie posiada charakteru globalnego w sensie jakości i ilości wydawanych prac. W dziedzinie elektroniki i telekomunikacji takich czasopism o międzynarodowej renomie jest kilka, podobnie jak i w obszarze automatyki, robotyki i informatyki. Dodatkowo wydawanych jest zapewne kilkadziesiąt dobrych czasopism NT polskojęzycznych (lub także wydających okazjonalnie materiały po angielsku) cieszących się uznaniem i popularnością w swoich obszarach tematycznych w środowisku NT. Ustawodawca faworyzuje ze względów parametryzacyjnych, i internacjonalizacji krajowych środowisk NT czasopisma anglojęzyczne. Rynek wydawniczy czasopism NT jest w kraju znaczny. Czasopisma NT są znaczną częścią całego środowiska, ... więcej»

Szyfrator wykorzystujący odwracalne układy logiczne (Andrzej Skorupski, Marek Pawłowski, Krzysztof Gracki, Paweł Kerntopf)
Logika odwracalna wykorzystuje pewną klasę funkcji boolowskich wielu zmiennych, które są nazywane funkcjami odwracalnymi. Funkcją odwracalną nazywamy zespół n funkcji n zmiennych, przy czym każda z tych funkcji musi spełniać dwa warunki: ● wszystkie funkcje są tzw. funkcjami zrównoważonymi, tj. takimi, że dla 2n-1 kombinacji zmiennych wejściowych (połowa wszystkich możliwych) funkcja przyjmuje wartość 1, a dla pozostałych 2n-1 kombinacji zmiennych wejściowych (druga połowa wszystkich możliwych) funkcja przyjmuje wartość 0, - n-bitowy wektor wyjściowy przyjmuje wszystkie możliwe kombinacje wartości n zmiennych. Ten ostatni warunek oznacza, że prawa (wyjściowa) strona tablicy prawdy funkcji odwracalnej stanowi permutację wierszy lewej (wejściowej) strony tej tablicy. Dla skrócenia zapisów będziemy przedstawiali wektory binarne w postaci odpowiadających im liczb dziesiętnych (zamiast 000 będziemy pisali 0, 001 - 1, 010 - 2, itd.). Można pokazać, że dla 2 zmiennych istnieją 24 (4!) różne funkcje odwracalne. Dla 3 zmiennych jest ich 40320 (8!), a dla 4 zmiennych ponad 20 bilionów (16!). Każdą z tych funkcji odwracalnych można zrealizować wykorzystując tzw. bramki odwracalne. W niniejszej pracy stosujemy tzw. bibliotekę bramek NCT opisaną w [1, 2]. Dla trzech zmiennych definiuje się 12 takich bramek, po 4 dla każdej zmiennej, czyli na każdej linii wejściowej. Na rys. 1 pokazano cztery bramki dla zmiennej x0, czyli na pierwszej linii. Są to bramki: T0, C0- 2, C0-1 i N0, dla których na linii x0 umieszczony jest symbol operacji XOR. W lewej kolumnie tablicy (rys. 1), pokazano oznaczenie graficzne bramki realizującej funkcję y0, (jest to tzw. wyjście sterowane), w ostatniej kolumnie tablicy - jaką permutację wierszy realizuje dana bramka. Analogicznie, bramki mające wyjścia sterowane na linii x1 oznaczane będą przez T1 (zamienia wiersze 5 i 7 w tablicy prawdy), C1-0 (zamienia wiersze 1 i 3 oraz 5 i 7), C1-2 (zamienia w... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Analiza przemian fazowych piramidalnych próbek popiołu przy zastosowaniu techniki przetwarzania i analizy obrazów (Wiesław MAŁKIŃSKI, Marcin KARLIŃSKI)
Wykorzystując skomputeryzowane systemy wizyjne można dokonać rejestracji i analizy przemian fazowych materiałów stałych. Próbkę materiału poddawanego procesowi oznaczania punktów charakterystycznych przemian fazowych (temperatura deformacji, kuli, półkuli, płynięcia) ogrzewa się w znormalizowanych warunkach, rejestrując parametry określające jej wielkość i kształt [2, 3]. Proces badania przemian fazowych polega na analizie kształtu próbki w funkcji temperatury. Dotychczasowe badania materiałowe, realizowane były przy wykorzystaniu próbek w postaci pionowych walców o średnicy 3 mm i wysokości 3 mm. Takiego doboru próbek dokonano ze względu na powszechność ich stosowania w specjalistycznych laboratoriach. Normy związane z oznaczaniem topliwości popiołu przewidują także inne kształty próbek: piramida, sześcian oraz ścięty stożek. W ramach projektu dokonano rozszerzenia funkcjonalności analizatora o możliwość analizy próbek w formie ostrosłupa, którego podstawą jest trójkąt równoboczny (próbki piramidalne). Powtarzalne i jednoznaczne wyznaczenie punktu deformacji stwarza dużo problemów w przypadku próbek walcowych, ze względu na brak ostrych naroży. Zastosowanie próbek piramidalnych powinno przyczynić się do zwiększenia precyzji i powtarzalności wyznaczenia punktu deformacji próbki. Konieczne były także: modyfikacja algorytmów identyfikacji punktów charakterystycznych przemian fazowych oraz rozszerzenie form wizualizacji przebiegu procesu. Odniesienie do norm Metodę oznaczania charakterystycznych temperatur topliwości popiołu z paliw stałych, kształt i wielkość próbek oraz sposób ich przygotowania określają normy: - Norma PN-ISO 540 "Paliwa stałe - Oznaczanie topliwości popiołu w wysokiej temperaturze metodą rurową", grudzień 2001, [5] - Norma ISO 540:1995(E) "Solid mineral fuels - Determination of fusibility of ash - High-temperature tube method" - Norma: PN-82/G-04535 "Paliwa stałe. Oznaczanie charakterystyc... więcej»

System SKF 11 do kontroli jakości filtrów przeciwzakłóceniowych (Marcin Karliński, Włodzimierz Mocny, Janusz Wójcik, Jerzy Zając )
Kontrola jakości produktów nie ogranicza się do sprawdzenia jakości wyrobów, ale oczekuje się także, że dostarczy ona producentowi informacji zwrotnych związanych z jakością i efektami działań produkcyjnych. Procesy pomiarowe prowadzone w różnych etapach produkcji są głównym źródłem informacji o jakości. Producenci oczekują także, że pomiary zostaną powiązane z automatyzacją operacji, transportem międzyoperacyjnym wyrobów, segregacją dobry/wadliwy, znakowaniem, archiwizacją wyników pomiarów itp. [3, 7, 8]. Wraz ze zmniejszaniem zaangażowania personelu w krytyczne operacje produkcyjne rośnie powtarzalność uzyskiwanych rezultatów, a liczba błędów maleje. Łatwiejsze jest także uzyskanie formalnej zgodności procesu kontroli jakości z zasadami systemów zapewnienia jakości (np. ISO 9001) [5]. Rezultatem takich wymagań jest znaczny koszt i złożoność systemów, ale jest to kompensowane przez wysoką wydajność systemu i niskie koszty jednostkowe operacji pomiarowych. We wcześniejszych publikacjach [3, 4, 10] przedstawiono wymagania stawiane produkcyjnym systemom kontroli jakości oraz wybrane rozwiązania zastosowane w systemie kontroli jakości filtrów przeciwzakłóceniowych SKF 06 opracowanym w Przemysłowym Instytucie Elektroniki. Podobne wymagania musiał spełniać także wcześniej opisywany system kontroli kondensatorów przeciwzakłóceniowych [6]. Po kilku latach, z inicjatywy producenta filtrów, ten sam zespół podjął opracowanie nowego, podobnego systemu do kontroli jakości filtrów oznaczonego SKF 11. W systemie tym wykorzystano wcześniejsze doświadczenia i wprowadzono nowe rozwiązania usprawniające dostrzeżone niedoskonałości poprzednika. Zwiększono możliwości produkcyjne producenta filtrów i poprawiono jego pozycję konkurencyjną dzięki obniżeniu kosztów i podniesieniu jakości produkcji. Nowy system wymagał uwzględnienia następujących okoliczności: 1) Wprowadzenie do produkcji nowych typów filtrów w nowych obudowach, 2) Zwiększenie wy... więcej»

Zastosowanie metody transferu ładunku do budowy interfejsu użytkownika urządzeń EAZ (Adam Kalinowski, Grzegorz Kowalski)
Interfejs użytkownika urządzeń EAZ to blok sprzętowo - programowy, służący do wprowadzania informacji przez użytkownika do urządzenia, oraz przekazujący dane z urządzenia do użytkownika. Poniżej przedstawiono przykładowy interfejs użytkownika urządzenia EAZ.Składa się z wyświetlacza, diod sygnalizacyjnych led i klawiatury. Wyświetlacz służy do wyświetlania wyników pomiaru prądów fazowych, rezystancji upływu kabla i rezystancji termicznej silnika, do pokazywania bieżącego czasu i aktualnej daty, do oznaczenia pola w którym zabudowano przekaźnik oraz do wyświetlania klawiszy kontekstowych. Diody sygnalizacyjne led służą do pokazywania stanu pracy urządzenia. Zapalają się w stanach awaryjnych urządzenia lub wskazują zmianę parametrów pracy. Kolor zielony diod stosowany jest przy poprawnych stanach pracy, czerwony sygnalizuje awarię, żółty przyporządkowany jest blokadzie załączenia wyłącznika a kolor niebieski użyty jest do wskazania stanu zasilania. Diody led są diodami do montażu powierzchniowego i stanowią integralną część folii płyty czołowej. Klawiatura wykorzystywana jest do wprowadzania nastaw zabezpieczeń, nominałów wartości pomiarowych i do odczytu dziennika zdarzeń. Składa się z trzech grup klawiszy: nawigacyjne, zatwierdzenia i kasowania oraz kontekstowe. Te ostatnie zmieniają swoje znaczenie w zależności od treści wyświetlanych na ekranie. Klawiatura ma budo... więcej»

Realizacja systemu blokad międzypolowych z użyciem standardu IEC 61850 (Andrzej Gacek, Leszek Książek)
Blokady międzypolowe to sygnały przesyłane pomiędzy polami rozdzielczymi stacji w ramach realizacji algorytmów obejmujących więcej niż jedno pole rozdzielcze. Przykładem automatyk realizujących skomplikowane funkcje przełączeniowe, wykorzystujących sygnały blokad międzypolowych są m.in.: SZR, AUPZ, AWSC. W klasycznych rozwiązaniach stacji rozdzielczych połączenia pomiędzy polami rozdzielczymi wykonywane są w postaci przewodów elektrycznych. Jest to rozwiązanie dość kosztowne i narażone na działanie zakłóceń elektromagnetycznych. Rozwój techniki, w szczególności systemów teleinformatycznych, umożliwił przesyłanie sygnałów pomiędzy polami rozdzielczymi za pomocą interfejsów komunikacyjnych. W energetyce od niedawna stosowany jest specjalizowany standard IEC 61850 uwzględniający specyfikę tej dziedziny przemysłu, wykorzystujący sieć światłowodową. Wprowadzenie ujednoliconego standardu komunikacyjnego, jakim jest IEC 61850, pozwala na bezpośrednie współdziałanie urządzeń różnych producentów. Specjalna usługa wchodząca w skład tego standardu o nazwie GOOSE, pozwala na bardzo szybkie przekazywanie w obrębie sieci teletransmisyjnej informacji o zdarzeniach zaistniałych w urządzeniach podstacji. Standard IEC 61850 opiera się na komunikacji urządzeń stacyjnych za pomocą sieci lokalnej typu Ethernet z prędkością 100 Mbit/s. W warstwie sieciowej i transportowej stosowany jest stos protokołów TCP/IP, zaś w warstwie aplikacji wykorzystuje się protokół MMS. Standard IEC 61850 zawiera zalecenia dotyczące wymiany informacji na poziomie stacji (magistrala stacji), na poziomie urządzeń pierwotnych (magistrala procesu), jak również bezpośredniej wymiany informacji pomiędzy urządzeniami na zasadzie "każdy z każdym". Standard określa też struktury danych przedstawiające elementy funkcjonalne urządzeń oraz mówi w jaki sposób należy je użyć, by uzyskać strukturę reprezentującą daną funkcjonalność urządzenia stacji. Standard IEC 61850 stosuje obiek... więcej»

CAF - potencjalny problem niezawodności obwodów drukowanych (Dariusz Ostaszewski, Edward Ramotowski, Tomasz Klej, Jan Oklej)
W związku z rosnącym zapotrzebowaniem na obwody drukowane w technologii HDI odległość pomiędzy przewodnikami ulega ciągłemu zmniejszeniu. Zapewnienie wysokiej niezawodności eksploatacyjnej spoczywa na konstruktorach i producentach PC B. Wiele układów elektronicznych jest przeznaczonych do pracy w skrajnie trudnych warunkach środowiska. Zjawiska elektromigracji (EC M) są odpowiedzialne za powstawanie zwarć i uszkodzenia sprzętu elektronicznego. Do szczególnie wysokiej grupy ryzyka należą urządzenia pracujące przy wysokich gradientach potencjału i w skrajnie niekorzystnych warunkach środowiska. EC M może być przyczyną awarii zarówno na powierzchni jak i wewnątrz struktury laminatu. Korozja na powierzchni dielektryka prowadzi do formowania dendrytów i wąsów metalicznych (ang. metal whiskers). Przyczyną awarii wewnątrz materiału izolatora może być: zwarcie przewodników przez warstwę dielektryka (ang. through-substrate short), awaria pod powierzchnią podłoża (ang. sub-surface substrate failure site) lub wzrost anodowego przewodzącego włókna CAF (ang. conductive anodic filament). CAF jest najczęstszą przyczyną awarii w przypadku uszkodzenia struktury dielektryka. Uszkodzenie struktury może być spowodowane: wadami konstrukcyjnymi, spadkiem adhezji pomiędzy żywicą a włóknami szklanymi, uszkodzeniem mechanicznym lub powstałym w wyniku działania wysokiej temperatury. Rozwarstwienie kompozytu umożliwia dyfuzję roztworów elektrolitów. Wzrost przewodzącego włókna ma miejsce wyłącznie przy przepływie prądu stałego i prowadzi do nieprzewidywalnej utraty rezystancji w wyniku korozji lub zwarcia przewodników. Znajomość mechanizmu powstawania CAF jest kluczowa w celu zapewnienia wysokiej jakości eksploatacyjnej urządzeń elektronicznych. Mechanizm powstawania CAF Zaproponowany przez Lando [10] mechanizm powstawania CAF składa się z dwóch etapów: uszkodzenia struktury laminatu i korozji elektrochemicznej anody. Szybkość pierwszego etapu limitu... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Relacyjna baza danych przechowująca dane z doświadczeń związanych z ochroną roślin - proces projektowania (Małgorzata Tartanus, Tadeusz Antczak )
We współczesnym świecie, zdominowanym przez olbrzymią ilość różnorodnych informacji, nie sposób sobie wyobrazić efektywnego funkcjonowania człowieka bez możliwości i udogodnień, jakie oferują bazy danych. Obecnie człowiek spotyka się na co dzień z tak dużą ilością i różnorodnością informacji, iż trudno byłoby mu je wszystkie zapamiętać, a w konsekwencji mógłby łatwo się pogubić w ich efektywnym wykorzystaniu dla swoich potrzeb. Praktycznie każdy rodzaj informacji, z jakim ma do czynienia człowiek w swoim środowisku, daje się przechowywać w bazach danych. Dlatego bazy danych stały się nieodzownym narzędziem w przechowywaniu informacji, a następnie ich przetwarzaniu, zgodnie z potrzebami współczesnych ludzi. Bazę danych można zdefiniować m.in. jako model pewnego wycinka świata rzeczywistego (niekoniecznie istniejącego fizycznie lub też takiego, który nigdy fizycznie nie istniał), który jest przedmiotem zainteresowania przyszłych użytkowników. Takim fragmentem rzeczywistości, który może być zamodelowany przy wykorzystaniu baz danych, jest rolnictwo, a dokładniej, jego poszczególne działy, w tym choćby badania i doświadczenia naukowe prowadzone w tym obszarze aktywności współczesnego człowieka. W literaturze można znaleźć przykłady aplikacji bazodanowych wspomagających producentów płodów rolnych w ich codziennej pracy [6, 4, 8], a także wyniki badań dotyczących różnych aspektów związanych z produkcją rolną [9], które dotyczą możliwości wykorzystania baz danych w tym obszarze badań naukowych. Systemy gromadzenia danych o sprzedaży i zużyciu środków ochrony roślin są podstawą krajowych strategii zrównoważonego stosowania środków ochrony roślin [5]. Aktualnie trudno wyobrazić sobie produkcję płodów rolnych bez stosowania środków ochrony roślin. Celem niniejszych rozważań jest przedstawienie relacyjnej bazy danych "Archiwum dokumentów", która usprawnia prowadzenie badań i doświadczeń naukowych związanych z ochroną roślin. Jej głó... więcej»

Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych (Tomasz Kraszewski)
Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

Trawienie włókien światłowodowych w celu odsłonięcia rdzenia do zastosowania w bioczujnikach z wykorzystaniem modów galerii szeptów (Karolina Orłowska, Zuzanna Kowalska, Magdalena Morawiec, Piotr Pałetko, Anna Sankowska, Teodor Gotszalk)
Obecnie nowoczesne metody diagnostyczne stanowią obiekt zainteresowań zarówno grup naukowo-badawczych na całym świecie, jak i przeciętnych użytkowników, takich jak lekarze i ich pacjenci, pracownicy stacji epidemiologicznych czy inżynierowie nadzorujący linie produkcyjne w przemyśle spożywczym i chemicznym. Rozwój technologii bioczujników otwiera nowe możliwości prowadzenia badań o skróconym czasie i obniżonych kosztach. Wraz z powstaniem bioczujników pojawiły się nowe możliwości związane z szybkością i jakością przeprowadzanych analiz, mobilnością, a także z niewielkimi rozmiarami czujników. Duże zainteresowanie bioczujnikami doprowadziło do rozwoju wielu technik detekcji ze szczególnym uwzględnieniem metod bezznacznikowych (ang. labelfree) wykorzystujących m.in. tranzystory polowe FET i nanodruty [1, 2], mikrodźwignie [3], mikrowagi [4] i kamertony kwarcowe [5], Bardzo dużo takich technik stanowią techniki optyczne, w których wykorzystuje się powierzchniowy rezonans plazmonowy [6], światłowody włókniste i planarne [7], mody galerii szeptów (ang. whispering gallery modes, WGM) [8] czy techniki interferometryczne [9-11]. Techniki bezznacznikowe (ang. label-free) charakteryzuje szereg zalet w porównaniu z konwencjonalnymi metodami opartymi na zastosowaniu markerów. W metodach tych nie dochodzi do niepożądanej modyfikacji badanej substancji przez znacznik, badania mogą być prowadzone w czasie rzeczywistym, a czujniki są stosunkowo proste i mogą być wytwarzane niskim kosztem. Wytworzenie bioczujnika, który spełniałby wysokie wymagania odnośnie selektywności i czułości pomiarowej wymaga szerokiej wiedzy z zakresu elektroniki, optoelektroniki, chemii, biologii i biochemii. Konstrukcja czujnika powinna umożliwiać komercjalizację i być konkurencyjna wobec innych bioczujników dostępnych na rynku. Należy zaznaczyć jednocześnie, że wśród tak wielu propozycji konstrukcji czujnikowych nie ma możliwości wybrania najlepszego i uniwersal... więcej»

Fotodioda RGB w niskiej temperaturze (Jakub Pająkowski)
Temperatura pracy podzespołów elektronicznych poniżej 200K nie jest typowym zakresem temperatur przewidzianym przez ich producentów. Jednak wiele urządzeń znajduje zastosowanie w niższych przedziałach temperaturowych, na przykład w badaniach z dziedziny ciała stałego, badaniach kosmicznych, w medycynie, krioterapii, czy w przemyśle spożywczym. Prowadzone wcześniej badania wykazały, że fotodiody zachowują swoje właściwości detekcyjne w niskich temperaturach [1, 9], a wzmacniacze operacyjne wykonane w technologii BiFET zachowują swoje właściwości wzmacniające w temperaturze wrzenia ciekłego azotu (77 K). Przebadano wzmacniacze operacyjne typu LF411 i TL081: ich wzmocnienia różnicowe KUR przy temperaturze 77K równe są odpowiednio 80dB i 90dB [2]. Wybrane typy wzmacniaczy operacyjnych CMOS są zdolne do pracy w temperaturze poniżej 50 K (przykładowo wzmacniacz typu LMC6041: w temperaturze 45 K jego wzmocnienie różnicowe KUR = 100dB) [3]. Wzmacniacz operacyjny wykonany w technologii CMOS typu AD8594 wzmacnia nawet w temperaturze wrzenia ciekłego helu (4,2 K) - jego wzmocnienie różnicowe KUR = 60 dB [4]. Również diody elektroluminescencyjne zachowują zdolności emisyjne przy 77 K [5]. W zakresie temperatury od 77 K do 300K przetestowano diody: czerwoną typu... więcej»

Przepływomierz kolanowy do pomiaru strumieni przepływu gazu (Michał Kamiński, Artur Andruszkiewicz)
Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Światłowody i ich zastosowania 2014 (Jan Dorosz, Ryszard Romaniuk)
Technika światłowodowa rozwijana jest w kraju, także na poziomie technologicznym, od połowy lat siedemdziesiątych ubiegłego wieku. Wkrótce będziemy obchodzić jej krajowe czterdziestolecie. Pierwsze ośrodki technologiczne powstały na terenie Wydziału Chemii UMCS w Lublinie (prof. A. Waksmundzki, J.Wójcik, A.Gorgol) w 1975 roku, a następnie na terenie instytutu ITME w Warszawie (L. Kociszewski), Hucie Szkła Polam-Ożarów, oraz na Politechnice Białostockiej i w Hucie Szkła Białystok (J. Dorosz). Obecnie technologiczne prace badawcze nad światłowodami są kontynuowane z sukcesem w trzech ośrodkach: Lubelskim (UMCS i PL), Białostockim (PB) i Warszawskim (ITME). Produkowane zaawansowane światłowody są stosowane w badaniach materiałowych i technologicznych, rozwoju procesów, a także do wytwarzania funkcjonalnych elementów i urządzeń fotonicznych. Z produkcji światłowodów telekomunikacyjnych, fotonicznych i specjalizowanych nietelekomunikacyjnych, w wymienionych ośrodkach, korzysta wiele laboratoriów elektronicznych, metrologicznych, telekomunikacyjnych, optoelektronicznych i fotonicznych, głównie uczelnianych, w całym kraju i zagranicą. Z tych światłowodów produkcji krajowej zbudowano wiele innowacyjnych elementów, układów i systemów fotonicznych. Dzięki dostępności w kraju światłowodów włóknistych telekomunikacyjnych i specjalnych, na wielu uczelniach mogły rozwinąć się nowoczesne laboratoria fotoniki światłowodowej. Jest to znaczny, chyba niedoceniany, sukces krajowych ośrodków technologicznych, wśród których Laboratorium Technologii Światłowodów na UMCS w Lublinie, pod kierownictwem prof. Andrzeja Waksmundzkiego, było pierwsze. Tradycja krajowych konferencji światłowodowych Krajowe środowisko naukowo-techniczne fotoniki i optoelektroniki światłowodowej spotyka się co półtora roku, na ogół w dość licznym towarzystwie gości zagranicznych, na Krajowej Konferencji" Światłowody i ich Zastosowania". XV Konferencja OFTA2014 odbyła się... więcej»

Zastosowanie operatora krzyżowania równomiernego w przypadku algorytmów ewolucyjnych z krzyżowaniem wieloosobniczym (Zbigniew Handzel, Mirosław Gajer)
Różnorodne techniki obliczeniowe, określane wspólnie mianem systemów ewolucyjnych cieszą się obecnie niesłabnącym zainteresowaniem, a obszary ich potencjalnych zastosowań nieustannie się powiększają, obejmując między innymi zagadnienia optymalizacji wielokryterialnej o dynamicznie zmieniających się uwarunkowaniach [1]. Do tego rodzaju technik obliczeniowych zaliczane są, między innymi, algorytmy ewolucyjne, algorytmy genetyczne, programowanie ewolucyjne, programowanie genetyczne, a także tzw. algorytmy rojowe, naśladujące zjawiska zachodzące w obrębie zbiorowości owadów społecznych, takich jak na przykład mrówki i pszczoły [2]. Zasady działania wymienionych technik obliczeniowych sprowadzają się do cyklicznego wykonywania odpowiednich operacji genetycznych, do których zalicza się przede wszystkim wzajemne krzyżowanie osobników, mutację ich materiału genetycznego oraz selekcję osobników, które będą mogły przejść do kolejnego pokolenia [3]. Tematyka niniejszego artykułu została poświęcona genetycznemu operatorowi krzyżowania, który realizowany jest w wersji tzw. krzyżowania wieloosobniczego. Jak sama nazwa wskazuje krzyżowanie wieloosobnicze sprowadza się do jednoczesnego zastosowania operatora krzyżowania do więcej niż dwóch osobników. Tego rodzaju proces nie ma swej bezpośredniej analogii w świecie przyrody [4]. Zastanawiając się nad przyczynami takiego stanu rzeczy, jako na główny powód należy wskazać prawdopodobnie na ewentualne trudności praktycznej realizacji w naturalnych warunkach procesu jednoczesnej wymiany materiału genetycznego pomiędzy trzema, a tym bardziej pomiędzy większą liczbą osobników. Prawdopodobnie tego rodzaju proces okazałby się być "zbyt kosztowny" w praktycznej realizacji, aby przyroda była skłonna go wypróbować podczas trwającej ponad miliard lat ewolucji życia na Ziemi. Jednak w przypadku sztucznych system... więcej»

Wpływ obecności farm wiatrowych na działanie radaru pasywnego (Janusz S. Kulpa, Marcin K. Bączyk, Krzysztof Kulpa)
W ostatnich latach można zaobserwować duży wzrost liczby turbin wiatrowych w Polsce [14]. Spowodowane jest to w dużej mierze presją Unii Europejskiej na rozwój odnawialnych źródeł energii. Należy jednak mieć na uwadze, iż budowa farm wiatrowych może niekorzystnie wpłynąć na skuteczność systemów radiolokacyjnych, zarówno aktywnych jak i pasywnych. Turbina wiatrowa jest obiektem w skład którego wchodzą silnie odbijające części o szerokim spektrum prędkości. W minionych latach powstało wiele analiz skupiających się na oddziaływaniu farm wiatrowych na radary [2, 9, 10]. Głównie dotyczą one monostatycznych radarów aktywnych. Powstały też algorytmy, które pozwalają na usunięcie lub ograniczenie szkodliwych efektów wywoływanych przez obecność farmy wiatrowej w obszarze pracy radaru [11], [13]. Literatura obejmująca analizy wpływu parków wiatrowych na radary multistatyczne, w tym na radary pasywne, jest uboga. Większość sposobów używanych w radarach aktywnych nie może być bezpośrednio zastosowana w radiolokacji pasywnej. Radar pasywny PCL (ang. Passive Coherent Location) to radar, który nie emituje własnych fal elektromagnetycznych - wykorzystuje sygnały już obecne w przestrzeni, takie jak radio FM, naziemna telewizja cyfrowa DVB-T, stacje sieci komórkowych GSM, bądź internetu bezprzewodowego [1, 5, 7, 8]. Radar taki rejestruje sygnał z nadajnika, tzw. sygnał referencyjny xref , oraz sygnał obserwacyjny xs zawierający odbite od występujących w obserwowanej scenie obiektów kopie sygnału nadawanego. Detekcja następuje wskutek korelacji sygnału odebranego z obserwowanej sceny z sygnałem referencyjnym za pomocą dwuwymiarowej funkcji niejednoznaczności [3]: (1) gdzie τ jest przesunięciem czasowym, fd częstotliwościowym sygnału xref, a* jest operatorem zespolonego sprzężenia. Maksima funkcji niejednoznaczności odpowiadają przesunięciom czasowym i częstotliwościowym obserwowanych obiektów, czyli określają ich odległość i prędkość bi... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Projekt wbudowanej dwupasmowej anteny GSM
Artykuł prezentuje łączne zastosowanie oprogramowania CST MICROWAVE STUDIO ® (CST MWS), Antenna Magus i Optenni Lab w celu poprawienia konstrukcji urządzenia monitorującego pracującego w standardzie GSM. Zadanie polegało na zastąpieniu typowej obudowanej anteny katalogowej zintegrowaną anteną drukowaną w celu zmniejszenia kosztów produkcji i kosztów materiałowych. Nowa antena musiała pracować w standardowych pasmach GSM 900 MHz i 1800 MHz oraz musiała korzystać z istniejącego podłoża i warstw metalizacji, bez zmiany wielkości płytki i układu ścieżek poza obszarem samej anteny. Nowa, zintegrowana antena została zaprojektowana z wykorzystaniem aplikacji Antenna Magus w połączeniu z oprogramowaniem CST MWS co pozwoliło uniknąć niepożądanych sprzężeń i zapewnić pracę anteny w żądanych pasmach częstotliwości. Program Optenni Lab został wykorzystany do zaprojektowania układu dopasowującego. Do czego owcy potrzebna antena? Firma "ETSE electronics" z miasta Stellenbosch w RPA to ekspert w zakresie urządzeń i systemów do łączności w pasmach mikrofalowych i RF. Konstruktorzy z ETSE opracowali produkt nazwany "Celmax collar". Jest to urządzenie śledzące systemu GPS noszone przez wybrane owce wchodzące w skład większego stada. W przypadku próby kradzieży lub innego niebezpieczeństwa spłoszone owce zaczynają biec. Urządzenie wykrywa przyspieszenie i powiadamia hodowcę przez wiadomość SMS wysyłaną przez lokalną sieć komórkową GSM. Na rysunku 2 pokazano pierwotną konstrukcję urządzenia z typową anteną GSM zamontowaną na płytce PCB i połączoną przez przepust z układem scalonym RF zamontowanym na drugiej stronie płytki. Częstotliwości pracy urządzenia to standardowe pasma GSM 900 (890 MHz - 960 MHz) i GSM 1800 (1710 MHz - 1879.8 MHz). Antenna Magus i CST MWS zostały użyte do zastąpienia pierwotnej anteny drukowaną anteną dwupasmową, bez zmiany układu ścieżek i wymiarów PCB. Podłoże wykonane jest z 4 warstw laminatu FR4 o przenikalno... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Adaptacyjna transmisja sygnału EKG z użyciem predykcji interwałów R-R za pomocą odpornej funkcji regresji (Paweł Kowalski, Michał Momot, Arkadiusz Stankiewicz, Rafał Wiśniowski, Krzysztof Różanowski)
Jednym z zagadnień, które można zaliczyć do obszaru inżynierii biomedycznej jest telemedycyna, która stanowi formę opieki zdrowotnej łączącą telekomunikację, informatykę i medycynę. Stwarza to między innymi możliwość przełamywania barier geograficznych i zwiększa efektywność wykorzystania potencjału istniejących struktur służby zdrowia. W celu usprawnienia funkcji realizowanych przez placówki medyczne korzystnej wydaje się wykorzystywanie nowoczesnych technologii teleinformatycznych. Nieodzownym elementem procesu diagnostyczno-terapeutycznego jest wymiana informacji pomiędzy jednostkami ochrony zdrowia na różnych poziomach. Konsultacja medyczna realizowana w sposób klasyczny wiąże się z koniecznością transportu badanej osoby, czasami również towarzyszącego lekarza oraz dokumentacji medycznej pomiędzy poszczególnymi placówkami ochrony zdrowia. Realizacja konsultacji przy pomocy łączy telekomunikacyjnych zapewniających odpowiednią jakość przekazu pozwala przyspieszyć ten proces. Zdalne techniki medyczne należą do najbardziej rozwojowych narzędzi monitorowania, diagnostyki i leczenia. Nieomal w każdej dziedzinie i specjalności medycznej można polegać na telekonsultacji lub telediagnostyce. Wśród systemów leżących w obszarze telemedycyny można znaleźć takie, które są związane z transmisją sygnałów elektrodiagnostycznych [1]. Do takich sygnałów należą między innymi, sygnały elektrokardiograficzne (EKG), elektroencefalograficzne (EE G), czy elektromiograficzne. Sygnały te, podlegają akwizycji z ciała osoby badanej na drodze pomiaru wielkości elektrycznych, w szczególności napięcia lub rezystancji. Wielkości elektryczne, rejestrowane na powierzchni ciała mogą być, po uprzednim wzmocnieniu i wstępnym przetworzeniu, zamienione na postać cyfrową. Dalsze ich przetwarzanie odbywa się poprzez realizację programów komputerowych, w komputerach stacjonarnych, urządzeniach mobilnych lub mikrokontrolerach. Praca przedstawia zagadnienie selekt... więcej»

Time-delay of arrival estimation from voice signal (Damian Cetnarowicz, Adam Dąbrowski)
This article concerns the issue of the sound source localization in order to automate video surveillance or improve the quality of voice recording. The sounds in general, are a rich medium of convenient communication. The sounds in organized human activities allow for spatial orientation. The case of the voice message is associated with a variety of techniques that involve the recording and transmission of voice, in order to transmit it to the recipient. In this way the voice message can be listened to in a distant location or can be played back at a later time. It is particularly important that the intelligibility of the message conveyed by voice should be high. Speech intelligibility can be limited by properties of equipment, recording or playback conditions. Current technological development provides a variety of solutions to acquire, compress and transmit the speech signals with almost no noticeable reduction in quality, which is confirmed by a subjective assessment. The speech intelligibility very often is reduced by disturbing sounds including traffic noise and other speaking persons. In literature it is called the “cocktail party" problem. It is difficult to cancel the disturbing sounds by filtering in frequency domain because the spectrum of the disturbing sounds overlaps with the spectrum of voice. Using statistical independence the signals can be separated by blind source separation (BSS) methods. Comprehensive review of BSS methods can be found in the book [1]. The authors of this article have already studied the properties of blind separation [2] and its usefulness in applications for hearing aids [3] or for automatic speech recognition in human-machine interfaces [4] [5] [6]. The effective algorithms for independent component analysis (IC A) were considered in [7]. The directional filtering also was investigated for application of speech intelligibility improvement [8]. It was noticed, that the performance o... więcej»

Metoda wyznaczania parametrów składowych wielotonów wybranych idiofonów (Andrzej Meyer, Marek Portalski)
Idiofony to grupa instrumentów muzycznych, w których źródłem dźwięku (wibratorem) jest ciało stałe mające niezmienną, naturalną sprężystość. Tym źródłem jest najczęściej cały instrument. Idiofony mogą wydawać dźwięki o charakterze szumowym lub o określonych częstotliwościach - wielotony. Zależy to od właściwości fizycznych elementu drgającego. Większość idiofonów to instrumenty perkusyjne. Należą do nich np. wibrafon, dzwony, gongi czy stosowane w terapii misy dźwiękowe [2]. Analiza dźwięków takich instrumentów jest zagadnieniem trudnym ze względu na ich wybitnie niestacjonarny charakter. Dlatego też wykorzystanie typowego spektrogramu nie daje tu zadawalających wyników. Autorzy skoncentrowali się w swoich badaniach na wybranej grupie idiofonów wydającej dźwięki będące wielotonami, na ogół wielotonami nieharmonicznymi. Wynikła stąd potrzeba napisania specjalistycznego programu pozwalającego na wyznaczenie najważniejszych parametrów takich dźwięków. Wielotony i ich parametry Wielotony to sygnały będące sumą składowych sinusoidalnych. W przypadku całkowitych krotności częstotliwości podstawowej mamy wielotony harmoniczne, czyli sygnały odkształcone posiadające okres pierwszej harmonicznej. W przypadku niecałkowitych zależności pomiędzy częstotliwościami składowych powstają wielotony nieharmoniczne, w których mogą powstawać dudnienia, a okres sygnału zależny od najmniejszej wspólnej wielokrotności częs... więcej»

Analiza technik biometrycznych do uwierzytelniania osób (Mirosława Plucińska, Jarosław Wójtowicz)
Elektronizacja administracji (e-administracja), upowszechnienie transakcji i usług internetowych (e-usługi) wymagają jednoznacznej weryfikacji osoby korzystającej z tych udogodnień. Wydaje się, że takie jednoznaczne potwierdzenie tożsamości osoby może zapewnić biometria. W związku z tym należy rozpatrzyć dostępne techniki biometryczne, przyjrzeć się im i wybrać te, które będą najbardziej przydatne do uwierzytelniania. Ogólny przegląd technik biometrycznych istniejących i rozwijanych obecnie na rynku z krótkim opisem metody działania i najważniejszymi wadami i zaletami został umieszczony w artykule pt.: "Krótki przegląd technik biometrycznych do rozpoznawania osób" autorstwa M. Plucińskiej i w związku z tym w obecnym artykule nie będzie przypomnienia technik jakie są obecnie na rynku, a jedynie ich porównanie. Najważniejsze cechy technik biometrycznych Analizę i porównywanie technik biometrycznych można przeprowadzić w różnych aspektach. Do najważniejszych cech charakteryzujących poszczególne techniki biometryczne opisanych parametrami urządzeń biometrycznych należą - wiarygodność techniki, akceptowalność społeczna i łatwość użycia, przepustowość określona czasem weryfikacji, wielkość wzorca, wielkość urządzenia, cena i inne. Akceptowalność społeczna Jedną z ważnych cech dotyczących technik biometrycznych jest akceptowalność społeczna biometrii. Strach przed przyłożeniem palca czy oka do urządzenia skanującego oraz obawa przed zostawianiem swoich danych biometrycznych są ciągle duże, ale ogólne podejście społeczeństwa do biometrii zmienia się. Z danych przytoczonych na Konferencji Naukowej Biometria 2010 (organizator Instytut Maszyn Matematycznych, Warszawa) w prezentacji prof. A. Koziczak z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy, aż 77% ankietowanych studentów Wydziału Prawa i Administracji w wieku od 22 do 30 lat było za stosowaniem cech biometrycznych do szybkiego sprawdzenia tożsamości. Ankietowani godzili się na ... więcej»

Badanie przepływomierza ultradźwiękowego z nakładkami izolującymi od wysokiej temperatury przepływającego czynnika i w niestandardowych warunkach pracy (Konrad Tajchman, Paweł Pliszka, Wiesław Wędrychowicz, Artur Andruszkiewicz)
Niniejsza publikacja jest kontynuacją wcześniejszego artykułu [1], którego tematyka dotyczyła pomiarów strumieni przepływów płynu przy użyciu przepływomierza ultradźwiękowego z podkładkami separującymi głowice od wysokiej temperatury przepływającego czynnika. W poprzednim artykule wskazano najlepszą konfigurację parametrów jakie należy wprowadzić do jednostki centralnej przepływomierza w celu minimalizacji błędu spowodowanego wprowadzeniem podkładek separujących pod czujniki ultradźwiękowe. Przeprowadzone pomiary pokazały, że najlepszym rozwiązaniem jest dodanie do zmierzonej wartości średnicy połowy grubości nakładki teflonowej i wprowadzenie tej wartości jako średnicy do jednostki centralnej przepływomierza. Należy wprowadzić również rzeczywistą grubość ścianki rurociągu, a odległość czujników przepływomierza ustawić zgodnie z obliczoną wartością przez jednostkę centralna przepływomierza. Pomija się całkowicie materiał z jakiego składa się nakładka. Prace pomiarowe zostały przeprowa... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Implementacje FPGA modułów kwantyzacji i dekwantyzacji w sprzętowych koderach wideo (Grzegorz Pastuszak)
Standard H.264/AVC [1] jest powszechnie używany w różnych aplikacjach komunikacyjnych oraz w rejestracji wideo. W stosunku do poprzednich standardów pozwala on na redukcję budżetu bitowego do 50% przy zachowaniu podobnej jakości zdekodowanego materiału wideo. Ostatnie prace w dziedzinie kompresji wizyjnej doprowadziły do opracowania kolejnego standardu nazwanego H.265/HEVC [2]. Efektywność kompresji uzyskiwana przy zastosowaniu nowych technik jest zwiększona nawet dwukrotnie w stosunku do standardu H.264/AVC. Ulepszenia algorytmu dotyczyły wielu modułów i sposobu organizacji danych. Jednakże moduły kwantyzacji i dekwantyzacji są w obu standardach podobne. Stąd techniki projektowania opracowane dla standardu H.264/ AVC mogą być z powodzeniem przeniesione do H.265/HEVC.Rysunek 1 przedstawia diagram blokowy kodera wideo z wyróżnionymi modułami kwantyzacji i dekwantyzacji. Współczynniki transformaty są kwantowane, aby usunąć mniej istotne informacje przed zakodowaniem entropijnym. Dekwantyzacja jest konieczna do rekonstrukcji treści wideo dla kolejnych bloków, makrobloków i obrazów kodowanych zarówno w trybie predykcji wewnątrzobrazowej (INTRA) i międzyobrazowej (INTER). Analiza kosztu bitowego i zniekształceń (RD) używana do wyboru trybu umożliwia uzyskanie dużej efektywności kompresji. Z drugiej strony koszt obliczeniowy zwiększa się, ponieważ wiele trybów musi być przetworzonych w pętli rekonstrukcji zawierającej kwantyzację i dekwantyzację. By uzyskać wydajność czasu rzeczywistego koder sprzętowy powinien wykorzystać pętlę rekonstrukcji o dużej przepustowości. W szczególności liczba modułów kwantyzacji i dekwantyzacji musi być zwiększona celem przetwarzania równoległego. W konsekwencji ich udział w potrzebnych zasobach sprzętowych staje się znaczący. W literaturze opisano wiele architektur kwantyzacji i dekwantyzacji [3-17]. Większość z nich stosuje bezpośrednie mapowanie kolejnych operacji na kaskadę złożoną z układu mnożące... więcej»

Zastosowanie metody wariancji Allana do analizy źródeł błędów losowych czujników inercjalnych (Jacek Paszek, Piotr Kaniewski)
Czujniki inercjalne są szeroko stosowane w systemach nawigacyjnych, aplikacjach autopilotów, układach stabilizacji położenia platform, czy w systemach digitalizacji ruchu (Motion Capture). Niezależnie od aplikacji, implementowany w systemie czujnik musi spełniać jej specyficzne wymagania. Producenci czujników inercjalnych zwykle podają jedynie ich podstawowe parametry, które pozwalają określić tylko przybliżoną dokładność pozycjonowania w systemie INS [1, 2]. Dokładniejszą informację o parametrach szumowych czujników można uzyskać wyznaczając na podstawie serii pomiarów funkcję gęstości widmowej mocy PSD (Power Spectral Density) lub korzystając z metody analizy w dziedzinie czasu, tzw. metody wariancji Allana AV (Allan Variance). Analiza metodą wariancji Allana Metoda AV do badania parametrów szumowych sensorów inercjalnych została opisana w normach IEEE po raz pierwszy w 1997 r. Opublikowany dokument dotyczy procedur testowania i formatowania dokumentacji dla jednoosiowych interferometrycznych giroskopów optycznych [3]. W 2005 r. organizacja IEEE opublikowała normę dotyczącą praktyk testowania, zbierania oraz analizy danych pomiarowych sensorów inercjalnych [4]. W tym samym roku norma ta została zatwierdzona przez organizacje ANSI (American National Standards Insitute) i IEEE -SA Standards Board. Pierwotnie metoda AV wykorzystywana była do mierzenia stabilności oscylatorów [5]. Obecnie wykorzystuje się ją również do określania rodzaju i oceny źródeł zakłócających dane pomiarowe dowolnych przyrządów. Analiza danych przy pomocy metody AV realizowana jest w dziedzinie czasu, a charakteryzowane procesy są funkcją czasu uśredniania zbiorów pomiarowych τ. Metoda polega na obliczeniu i graficznym przedstawieniu odchylenia standardowego σ (τ) różnic wartości średnich y- wielkości mierzonej x w sąsiadujących ze sobą przedziałach czasowych o długości τ, przy założeniu stałego czasu próbkowania oraz nieskończenie... więcej»

Wykorzystanie sieci akustycznych w pasywnej lokacji obiektów (Stanisław GRZYWIŃSKI, Dariusz RODZIK, Jan PIETRASIEŃSKI)
Obecnie można wyróżnić dwa podejścia do organizacji systemów akustycznej lokalizacji: systemy scentralizowane i zdecentralizowane. Pierwsza grupa systemów posiada obniżoną zdolność detekcyjną szczególnie w terenie zurbanizowanym, w którym występuje zjawisko echa, wielodrogowości, a przede wszystkim braku bezpośredniej "widoczności źródła zaburzenia. Dla przykładu, jeśli z pewnych przyczyn kilka czujników zarejestruje sygnał odbity od przeszkody terenowej lub nie zarejestruje w ogóle zaburzenia, to dochodzi do sytuacji, gdzie system nie posiadając wystarczającej ilości danych w najlepszym przypadku wykryje zdarzenie lecz wskaże błędną pozycję źródła zaburzenia (rys. 1a). Oprócz ograniczenia zastosowań w zurbanizowanym terenie występuje również problem lokacji wielu źródeł. Powyższe problemy spowodowały zmianę dotychczasowego podejścia do zagadnienia akustycznej lokacji szczególnie przy zastosowaniu ich w terenach zurbanizowanych. Korzystnym rozwiązaniem zdaje się stosowanie dużej liczby czujników, rozmieszonych na pewnym obszarze. Systemy tego typu bazują na informacjach zgromadzonych na podstawie fuzji danych zarejestrowanych z sieci nodów. Zastosowanie takiej koncepcji systemu ma wiele zalet. Mianowicie wykorzystanie większej ilości sensorów skutkuje zwiększoną dokładnością całego systemu oraz większą niezawodnością detekcji zaburzeń w środowisku, gdzie występuje wysoki udział przeszkód terenowych. Oprócz tego poszczególne nody mogą być mniej dokładne, gdyż informacja o zaburzeniu ośrodka wywołanego np. strzałem z broni palnej, jest zbierana z większego obszaru oraz z większej ilości czujników niż ma to miejsce w przypadku układu scentralizowanego. Zwiększona baza pomiarowa może również zostać wykorzystana do zmniejszenia wymagań w przypadku przetworników analogowo-cyfrowych oraz procesora, przy zachowaniu dokładności wyznaczania pozycji. Powyższe przesłanki stały się podstawą przy projektowaniu systemów lokacji akustyczne... więcej»

Fotonika - wiodąca technologia europejska (Ryszard S. Romaniuk)
Unia Europejska wyznacza dla Europy "polityczne" priorytety rozwojowe. Polityczne, w znaczeniu społeczne, infrastruktury cywilizacyjnej, dobrobytu, zasobów, warunków życia, zdrowia, konkurencyjności w skali globalnej, rozwoju gospodarczego, luki cywilizacyjnej wobec globalnych liderów. UE działa, między innymi, poprzez swoje specjalizowane ciała, inicjatywy i akcje takie jak, długookresowe strategie - Europa 2020, Europejskie Forum Strategiczne Infrastruktury Badawczej ESFRI, agendy - Europejski Instytut Innowacji i Technologii EIT, programy ramowe - obecnie Horizon2020 itp. Takie działania na poziomie centralnym - europejskim mają mieć w założeniu adekwatnych partnerów na poziomie krajowym w postaci np. odpowiednich konsorcjów innowacyjnych - platform, klastrów, węzłów, centrów itp. Fotonika została wybrana, w planach strategicznych rozwoju Europy, na jedną z kluczowych specjalizacji inteligentnych. Taki wybór niesie ze sobą szereg konsekwencji organizacyjnych, logistycznych, gospodarczych, społecznych i wiele innych. Fotonika i inne dziedziny inn... więcej»

Demonstrator lekkiego monoimpulsowego radaru trójwspółrzędnego bliskiego zasięgu pasma L (Adam Konrad Rutkowski, Adam Kawalec)
Systemy radarowe bliskiego i bardzo bliskiego zasięgu mają bardzo duże znaczenie w zastosowaniach powszechnych jak i w zastosowaniach specjalnych. Należą do nich między innymi systemy tak zwanej obrony aktywnej obiektów przed pociskami przeciwpancernymi. Celem obrony aktywnej jest uzyskanie co najmniej jednego z następujących efektów: - pocisk przeciwpancerny atakujący broniony obiekt zostanie zniszczony zanim dotrze do celu, - tor lotu pocisku przeciwpancernego zostanie zmieniony tak, że minie atakowany obiekt, - pocisk przeciwpancerny dotrze do atakowanego obiektu, ale zostanie uszkodzony w takim stopniu, że jego głowica bojowa nie przebije pancerza osłaniającego broniony obiekt. Osiągnięcie tych efektów wymaga jak najwcześniejszego uzyskania wiarygodnej informacji o tym, że chroniona strefa została naruszona, a obiekt jest atakowany. Na informację tę składają się: liczba atakujących pocisków, chwilowy kierunek i zwrot lotu pocisków, chwilowa odległość do każdego z tych pocisków. Do detekcji faktów ostrzelania pojazdu pociskami przeciwpancernymi mogą być stosowane sensory optoelektroniczne oraz elektromagnetyczne, a wśród nich lekkie urządzenia radiolokacyjne [1-3]. Systemy obrony, a w tym obrony aktywnej funkcjonują w warunkach nieprzewidywalnego zagrożenia oraz głębokiego deficytu czasu. W wielu przypadkach czas od chwili wystrzelenia pocisku przeciwpancernego do momentu dotarcia jego do celu nie przekracza 1,5 sekundy. W tym czasie system ochrony powinien wykryć fakt ostrzelania, ocenić stopień niebezpieczeństwa, wybrać najlepszy sposób przeciwdziałania oraz w odpowiednim momencie uruchomić środki obrony aktywnej, tak zwane destruktory, zwalczające atakujący pocisk przeciwpancerny. W przypadku systemów monitorowania obszaru pracujących w warunkach znacznego niedostatku czasu, duże znaczenie mogą mieć systemy radarowe w wersjach monoimpulsowych, zbudowane przy użyciu układów natychmiastowego pomiaru fazy NPF, układów n... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
O pewnej modyfikacji układu zasilania anteny typu bow-tie (Mateusz Pasternak, Jerzy Pietrasiński, Paweł Kaczmarek)
Dipole planarne typu bow-tie charakteryzują się szerokim pasmem przenoszenia przy jednocześnie dość prostej konstrukcji. Jedną z podstawowych zalet tego typu anten jest duża elastyczność geometrii, pozwalająca na daleko idącą ingerencję w kształt apertury i tym samym rozkład pola elektrycznego na jej powierzchni. Daje ona też możliwość krzyżowania dwóch dipoli w ramach jednej kompaktowej struktury, w celu uzyskania separacji polaryzacyjnej. Cechy te sprawiają, że konstrukcje typu bow-tie wciąż należą do najczęściej wykorzystywanych anten w technice GPR . W typowym wykonaniu anteny takie charakteryzują się symetrią osiową i zależną od częstotliwości impedancją wejściową rzędu kilkuset omów. Z tego powodu często wymagają one zasilania poprzez transformatory impedancji, pełniące równocześnie funkcję symetryzatorów. Konstrukcja takich układów nie jest bynajmniej zagadnieniem trywialnym, ponieważ muszą one charakteryzować się co najmniej taką samą szerokością pasma co zasilana antena oraz pracować w sposób możliwie bezstratny. Istnieją zasadniczo dwa rozwiązania wymienionego problemu zasilania. Pierwsze polega na wykorzystaniu mikropaskowej linii koplanarnej, zaś drugie linii dwupaskowej, przy czym w ostatnim z przypadków, w wersji symetrycznej, linia może być prostopadła do płaszczyzny anteny lub też w wersji antysymetrycznej, leżeć na podłożu wspólnym z anteną. Niestety jednak, w większości z wymienionych tu rozwiązań, konieczne jest dodatkowe zastosowanie przejścia na niesymetryczną linię paskową o impedancji falowej 50 Ω. Można jednak tę niedogodność obejść. W tym celu podjęte zostały próby takiej transformacji kształtu bow-tie, aby w rezultacie uzyskać możliwość bezpośredniego zasilania tejże anteny za pomocą niesymetrycznej linii paskowej ulokowanej na wspólnym z nią podłożu. Udało się to osiągnąć dla konfiguracji antysymetrycznej poprzez przekształcenie jednego z ramion bow‑tie w szczelinowo pobudzany monopol. Z... więcej»

Rozporządzenie eIDAS - na pograniczu technologii i prawa (Daniel Wachnik )
W wyniku prac regulujących obszar podpisu elektronicznego została wydana Dyrektywa 1999/93/WE dotycząca wspólnotowych ram podpisu elektronicznego [1]. W trakcie 10-ciu lat obowiązywania Dyrektywy nie odnotowano oczekiwanego nasycenia rynku podpisów elektronicznych. W roku 2008 Komisja Europejska zaadoptowała plan działań w zakresie e-podpisu i e-identyfikacji, który zaowocował między innymi wytworzeniem raportów CRO - BIE S [2]. Raporty CRO BIE S stanowiły istotny wkład przy określeniu zakresu mandatu standaryzacyjnego M/460, wydanego w 2009 roku przez Komisję Europejską. Mandat ten miał na celu uporządkowanie standardów związanych z szeroko pojętymi usługami zaufania.Początkowo, rozważano zastosowano możliwość nowelizacji Dyrektywy 1999/93/EC , jednak w na podstawie analiz postanowiono, że najkorzystniejszym aktem prawnym, z punktu widzenia harmonizacji usług jest Rozporządzenie unijne. Draft rozporządzenia został opublikowany przez Komisję Europejską w dniu 04.06.2012 roku [3], a sam fakt publikacji został po raz pierwszy ogłoszony publicznie w Polsce, w trakcie konferencji EFPE . Warto nadmienić, że Rozporządzenie Unii Europejskiej jest aktem prawnym zasadniczo różniącym się od Dyrektywy. O ile Dyrektywa jest implementowana przez kraje członkowskie w prawie krajowym, o tyle Rozporządzenie nie pozostawia tego rodzaju swobody. Rozporządzenie jest stosowane bezpośrednio. Zastosowanie tego rodzaju aktu oznacza z jednej strony brak rozbieżności na poziomie krajów członkowskich, ale oznacza także, że państwa członkowskie nie mają możliwości korygowania tych przepisów, które z ich punk-tu widzenia są uciążliwe. Przykładowo, jeśli zapisy rozporządzenia będą wykluczać możliwość zastosowania w kontaktach z administracją publiczną określonego rodzaju mechanizmu, nie będzie można stosować tego mechanizmu, bez względu na fakt jakie koszty z tego powodu będzie musiało poni... więcej»

Toshiba AT10A-103
Firma Toshiba Europe, oddział w Warszawie, udostępniła naszej redakcji swój nowy tablet oznaczony AT10A-103. Tablet jest przenośnym komputerem większym nieco niż telefon komórkowy, którego główną, widoczną cechą jest duży ekran dotykowy (Multi-Touch). W przeciwieństwie do większości klasycznych urządzeń tablety nowszego typu nie mają fizycznej klawiatury, użytkownik posługuje się klawiaturą wirtualną dotykając ekranu palcem.W odróżnieniu od kompu... więcej»

Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Influence of the internal electrolyte composition on amperometric sulphur dioxide sensor properties (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski )
Amperometric sensors due to theirs high sensitivity and good dynamic properties are frequently used in toxic gases concentrations monitoring. Most of them are based on liquid electrolytes. Up to now usage of solid polymer electrolyte (SPE) membrane with layer of porous, metal electrode in construction of such sensors is the most successful approach. Main advantages of this type of sensors are a very high active area of the working electrode (WE) and a short response time. To obtain WE in the form of a porous layer on conductive polymer membrane several kinds of methods, such as chemical deposition, metal vapour deposition, electrochemical deposition or painting can be used [1]. Some work concerning detection of sulphur dioxide with usage SPE electrode have been published so far [2-6]. In these studies different internal electrolytes, such as 1M HClO4 [2], 0.1M HClO 4 [3], 1M H2SO4 [4], 1M NaOH [4], 5M H2SO4 in water [5, 6] and 5M H2SO4 in mixture of water and different organic solutions [5, 6] have been used. Jacquinot at al published studies in which influence of concentration of H2SO4 on SPE sensitivity for SO2, NO and NO2 has been presented [7]. It has been proved that sensitivity of the SPE for SO2 decreases with increase of the internal electrolyte solution concentration. In this work performance of SO2 sensor is investigated. The main goal of this research is to determine the influence of internal electrolyte composition on the sensor properties. Sensor filled with 1M and 5M sulphuric acid has been prepared. Responses of the sensor in the atmosphere containing different concentration of SO2 or different interfering gases have been measured. Experimental Sensor structure is similar to one the described elsewhere [8]. In [8] metal layer on Nafion membrane was deposited by vacuum sublimation. Otherwise then in ear... więcej»

Modeling of properties of multilayer inductances fabricated in different microelectronics technologies (Grzegorz Błąd, Mariusz Pilecki, Jerzy Potencki, Grzegorz Tomaszewski )
The planar inductors are more and more frequently used in modern electronics, for example in different mobile devices, RFID systems, electromagnetic converters for energy harvesting or hard disk writing heads. Basic requirements for these types of devices are a small size and a high level of integration while maintaining theirs full usefulness. Practically, all microelectronic technologies enable the manufacture of planar inductors in the form of multilayer structures, which results in essential increasing of their inductance. In addition, these types of inductive components have very good technical parameters, such as quality factor (Q), relative high SRF (self-resonant frequency), and their production process is less complex than traditional coils [1-5]. Currently, there are many programs for design and simulation of inductive components on the market. But only a few of them offer the opportunity to go through the full design phase starting to build a computer model through analysis and simulation to the development process. In this work Mentor Graphics Expedition Enterprise software and particularly IE3D package have been used. It is highly-professional software designed especially for the complex design of electronic circuits performed on PCB, but it can be successfully used for the design of multilayer structures implemented in other technologies (e.g. thin-, thick-film, LTCC). IE3D is an integrated full-wave electromagnetic simulation and optimization package for the analysis and design of 3D ... więcej»

Investigation of electrocatalytic gas sensor properties in presence of chlorine (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski, Piotr Jasiński)
Gas sensors based on solid state electrolytes have many advantages, such as durability, low cost and long-term stability. There is a number of types of solid state gas sensors. The main disadvantage of such sensors is usually lack of selectivity. Electrochemical sensors operating in electrocatalytic mode seem to have improved selectivity due to its particular working mechanism [1]. Operation principle of such sensors is based on the excitation of a galvanic cell with a periodic triangular voltage, while current response is measured. During voltage sweep an oxidation and a reduction of chemical species occurs on electrodes surface. As a result sensor response in a form of an unique voltammetric characteristic is obtained. Shape of that current-voltage (I-V) curve depends on type and composition of gases in the sensor surrounding [2]. Earlier studies indicated that electrocatalytic gas sensors based on Nasicon can be used for NO2 [1, 3, 4], SO2 [1], NH3 [4, 5] and H2S [6] detection. Optimal working temperature was determined for NO2 (175ºC), NH3 (350 C) and H2S (300 C). In this study investigation of electrocatalytic sensors properties in the presence of chlorine are presented. Experimental Nasicon pellets were prepared using the sol-gel method according to procedure [7]. Process of obtaining... więcej»

60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Ink-jet printed dielectric layers containing BaTiO3 nanopowders (Marcin Słoma, Karol Lenkiewicz, Grzegorz Wróblewski, Anna Młożniak , Małgorzata Jakubowska)
Printed electronics is a new method for making electronics applications, but with growing industry and market is becoming more valuable year by year. In new technologies requiring improved precision it is important to obtain good repeatability and reliability, especially when dosing small amount of materials. For that reason ink-jet printing is one of the most most popular printing technique for precise printed electronics. It is an appropriate method for low cost application and small quantity production in industry or for research and laboratory tests. Ink-jet is a non-contact additive method and does not require stencil, mesh or rotating rollers, ink goes directly from dispenser head to substrate. For that reason loss of material is minimized. Small diameter of nozzle allows to obtain very thin and narrow lines. The smallest line width is 14 - 25 μm [1]. Better efficiency was observed for polymeric photovoltaic device manufactured by ink-jet printing than the same layer thickness made by spin-coating. The reason was faster ink drying in ink-jet method [2]. Non-contact method allows to make 3D-printing such as abluminal coating for stents [3]. Ink-jet printing is an appropriate method for manufacturing passive electronic components like resistors, capacitors [4], biomedical devices like sensors, diagnostic elements [5] and RFID tags [6], organic transistors [7]. Ink-... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»