profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
A quasi-2D small-signal MOSFET model - main results (Wiesław Kordalski)
Dynamic properties of the MOS transistor under small-signal excitation are determined by kinetic parameters of the carriers injected into the channel, i.e., the low-field mobility, velocity saturation, mobility at the quiescent-point (Q-point), longitudinal electric field in the channel, by dynamic properties of the channel, as well as by an electrical coupling between the perturbed carrier concentration in the channel and the gate and body. The above- mentioned phenomena are essential for a non-quasi-static (NQS) approach to modeling of the MOSFET, which is extremely important when the MOS transistor operates near or above the cut-off frequency fT. The purpose of this work is to present some important results of a new quasi‑2D non-quasi-static small-signal four-terminal model of the MOSFET which is based on the results of [1, 2], where, respectively, a quasi‑2D representation of the channel is defined and basic equations for the time-dependent quasi-two-spacedimensional non-quasi-static small-signal MOSFET model are derived from first principles. Considerations presented here are performed for a p-channel MOS transistor. MOSFET under small-signal excitation Let us consider a quasi‑2D picture of phenomena occurring in a p‑channel MOSFET operating in saturation region of its output characteristics under dc and small-signal conditions, which is shown in Fig. 1. When the MOS transistor is biased with constant terminal voltages, all quantities of the quasi‑2D model of the transistor related to the channel, gate, and body depend only on the spatial variable ξ, as shown in Fig. 1a. Neither the gate nor the body displacement current occurs under steady state conditions, because electric charges of both the gate and the body do not vary. If we add in series small time-varying voltage sources υgs(t), υds(t), and υbs(t) to their respective biasing voltages VGS, VDS, and VBS, see Fig. 1... więcej»

Obliczenia z pierwszych zasad własności defektów rodzimych w ZnRh2O4 (Oksana Volnianska, Piotr Bogusławski)
Przezroczyste tlenki przewodzące charakteryzuje zarówno wysoka przezroczystość w obszarze światła widzialnego, jak i wysoka ruchliwość nośników i dobre przewodnictwo elektryczne, co powoduje iż są one istotne z punktu widzenia zastosowań [1]. Większość tlenków wykazuje przewodnictwo typu n. Badania prowadzone w ostatnim okresie poświęcone były w znacznej mierze uzyskaniu przewodnictwa typu p. Dwie grupy tlenków, mianowicie delafosyty CuXO2 (X = Al, Ga, In) [2] i spinele ZnX2O4 (X = Co, Rh, Ir), wykazują przewodnictwo typu p [3-6], które może być aktywowane termicznie poniżej temperatury pokojowej, i przybiera wartości rzędu 0,4-3,4 S/cm w T = 300 K [5]. Co więcej, struktura elektronowa obu grup jest zbliżona. Najwyższe przewodnictwo elektryczne zaobserwowano dla X = Rh i Ir [5]. W szczególności własności ZnRh2O4 są obiecujące dla optoelektroniki. Pomiary Mizoguchiego i in. wykazały, iż w ZnRh2O4 optyczna przerwa wzbroniona Egap wynosi 2,1 eV [3]. W pracy tej przyjęto, iż wierzchołek pasma walencyjnego (VBT) jest zbudowany z orbitali 4d 6 atomów Rh w stanie niskospinowym. Dokładniejsze pomiary Dekkersa i in. [5] wykazały, że Egap = 2,74 eV, zaś przewodnictwo typu p zostało przypisane obecności dziur. Równolegle z badaniami doświadczalnymi prowadzone były obliczenia teoretyczne struktury elektronowej [4, 7-9] w ramach teorii funkcjonału gęstości. Potwierdziły one hipotezę wysuniętą w pracy [3], że przerwa wzbroniona jest utworzona pomiędzy stanami 4d(Rh) rozszczepionymi przez oktaedryczne pole krystaliczne na zapełniony tryplet t2g i pusty dublet eg. Orbitale d znajdują się w konfiguracji niskospinowej. Zbliżoną strukturę pasmową otrzymano w pracach [8, 9] przy zastosowaniu funkcjonałów hybrydowych, które prowadzą do wartości Egap bliższej wartości doświadczalnej. W pracy [10] przeprowadzono obliczenia struktury pasmowej idealnego materiału i defektów stosując przybliżenie uogólnionego gradientu (GGA), które wykazały też istotn... więcej»

Wykorzystanie fal plazmowych i techniki C-V do charakteryzacji warstw implantowanych jonami O+6 w krzemie (Michał Pawlak, Mirosław Andrzej Maliński, Łukasz Bartłomiej Chrobak, Shovon Pal, Arne Ludwig)
Jeśli półprzewodnik zostanie oświetlony modulowaną natężeniowo wiązką światła laserowego o energii fotonów większej niż przerwa energii wzbronionych wówczas w półprzewodniku powstanie fala plazmowa. Fale plazmowe mogą być rejestrowane poprzez detekcję składowej periodycznej natężenia promieniowania termicznego tych próbek (technika PTR) lub osłabienie natężenia wiązki sondującej (technika MFCA). Analiza fal plazmowych umożliwia uzyskanie informacji o parametrach rekombinacyjnych materiałów półprzewodnikowych za pomocą technik PTR [1-3] oraz MFCA [4-15]. Dla próbek jednowarstwowych z charakterystyk częstotliwościowych amplitudy i fazy sygnału PTR i/lub MFCA można określić czas życia nośników generowanych światłem w tych próbkach, a także prędkość rekombinacji powierzchniowej nośników głównie na powierzchni oświetlanej próbek. Dla próbek implantowanych można określić zmianę współczynnika absorpcji optycznej warstw implantowanych w powiązaniu z pomiarami grubości warstw implantowanych metodą pojemnościową. Stanowisko badawcze Schemat blokowy stanowiska badawczego PTR do pomiarów częstotliwościowych próbek półprzewodnikowych w konfiguracji odbiciowej został przedstawiony na rysunku 1, natomiast rysunek 2 przedstawia stanowisko pomiarowe do pomiarów modulacji absorpcji na swobodnych nośnikach (MFCA). W wyniku oświetlania próbek półprzewodnikowych są w nich generowane na powierzchni oświetlanej zarówno fale termiczne jak i fale plazmowe. Fale termiczne i plazmowe były wzbudzane w badanych materiałach za pomocą lasera argonowego (LASER) o mocy około 600 mW oraz średnicy wiązki około 3 mm. Wiązka lasera argonowego była modulowana za pomocą modulatora akusto-optycznego (M-A-O) w zakresie od 0,05 Hz do 100 kHz. Modulator akusto-optyczny był sterowany przy wykorzystaniu wzmacniacza fazoczułego (LIA, ang. Lock-In Amplifier)... więcej»

System rozpoznawania komend głosowych z zastosowaniem systemu wbudowanego (Paweł Tomasik, Przemysław Barański)
Technologia rozpoznawania mowy znajduje zastosowanie w wielu dziedzinach. Przykładem może być komunikacja osoby niepełnosprawnej z komputerem lub sterowanie wybranymi niekrytycznymi funkcjami w samolocie. Rozpoznawanie mowy zdobywa coraz szersze uznanie w telefonicznych centrach obsługi klienta, gdzie osoba dzwoniąca opisuje swój problem słownie. System automatycznie łączy do odpowiedniego konsultanta [1]. Mimo wielu prowadzonych badań problem rozpoznawania mowy jest problemem otwartym i trudnym o czym może świadczyć projekt Siri, który jest rozwijany od roku 2010 i pochłonął ponad 100 milionów dolarów [2]. W uproszczeniu, z punktu widzenia przetwarzania sygnałów, za wytwarzanie mowy odpowiedzialne są struny głosowe oraz tzw. trakt głosowy [3]. Widmo drgających strun głosowych przedstawiono na rysunku 1. Widmo takie posiada szereg harmonicznych. Pierwsza harmoniczna nazywana jest podstawową częstotliwością tonu krtaniowego. Dźwięk drgających strun głosowych nazywany jest pobudzeniem krtaniowym. W przypadku głosek bezdźwięcznych ("p", "t", "k", "f", "s", "ś", "sz", "c", "ć", "cz", "ch") pobudzenia krtaniowego nie ma. Trakt głosowy pełni rolę filtru modelującego widmo sygnału mowy. Charakterystyka traktu głosowego zależy od ułożenia języka, żuchwy, warg, podniebienia. W wyniku połączenia tonu krtaniowego oraz traktu głosowego otrzymujemy na charakterystyce widmowej cztery skupiska o dużej energii, które nazywamy formantami. Powyższy schemat generacji sygnału mowy nazywany jest również modelem źródło-fil... więcej»

Stabilność spektralna monochromatycznych diod LED w zastosowaniach OSL (Ewa Mandowska, Arkadiusz Mandowski, Bartosz Nitsze)
Rosnące wymagania i zaostrzane normy bezpieczeństwa wymuszają poszukiwanie nowych, lepszych technik pomiarowych. Od kilku lat zdecydowanie najbardziej obiecującą metodą stała się optycznie stymulowana luminescencja (OSL). Technikę OSL zaczęto stosować w dozymetrii promieniowania jonizującego stosunkowo niedawno, od drugiej połowy lat 90. Rolę detektora OSL pełni odpowiednio przygotowany materiał (np. Al2O3:C) w osłonie światłoszczelnej [1]. W obecności promieniowania jonizującego stany pułapkowe detektora zapełniają się. Pułapki są metastabilne i charakteryzują się bardzo długim czasem życia. Zapisana informacja jest więc trwała - można ją odczytać nawet po wielu latach (nawet tysiącach lat) od naświetlenia. Określając liczbę nośników uwięzionych w pułapkach możemy wyliczyć dawkę promieniowania pochłoniętą przez detektor. Odczytu dokonuje się w specjalnym urządzeniu (czytniku) wykorzystującym technikę OSL. Idea tej metody polega na stymulacji napromieniowanego detektora bardzo silnym światłem o długości fali &#955;s (np. światło zielone). Światło to powoduje uwolnienie nośników ładunku znajdujących się w pułapkach i w efekcie, poprzez rekombinację promienistą, emisję luminescencji. Część tej luminescencji w zakresie krótkofalowym &#955; < &#955;s możemy zarejestrować odcinając się od bardzo silnej składowej &#955;s odpowiednim układem filtrów. W porównaniu do czytnika TL eliminacji uległ tutaj moduł grzania. Dzięki temu, możliwa jest bardziej zwarta, kompaktowa budowa czytnika. Kolejną korzyścią jest też krótszy czas pomiaru i możliwość jego wielokrotnego powtarzania, gdyż pomiar OSL nie zeruje całkowicie zapisanej informacji. W układach pomiarowych stosowanych w detekcji OSL do stymulacji detektora wykorzystuje się monochromatyczne elektroluminescencyjne diody LED [2, 3]. Warunkiem przeprowadzenia rzetelnych pomiarów jest wysoka stabilność spektralna stymulującego światła. Producenci diod LED podają parametry pracy swoich pr... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Badanie elastycznych paneli fotowoltaicznych w aspekcie zastosowań militarnych (Stanisław Maleczek, Wojciech Malicki, Kazimierz Drabczyk, Andrzej Cebrat)
Alternatywne źródła energii stają się obecnie coraz bardziej znaczącym elementem systemów zasilania, nabierającym szczególnego znaczenia w czasie obecnego kryzysu energetycznego. Coraz częściej do wytwarzania energii elektrycznej wykorzystywane jest promieniowanie słoneczne docierające do powierzchni Ziemi. Zajmuje się tym fotowoltaika będąca jedną z technologii nowoczesnego i sprzyjającego środowisku pozyskiwania energii elektrycznej, wykorzystującą zjawisko przetwarzania promieniowania słonecznego w prąd elektryczny zachodzące w ogniwie fotowoltaicznym. Metoda jest znana od wielu lat, a baterie fotowoltaiczne możemy spotkać w różnych zastosowaniach militarnych i cywilnych. Niestety metoda nie jest jeszcze w pełni wykorzystywana w Siłach Zbrojnych RP. Jedną z pierwszych prób zastosowania baterii fotowoltaicznych w polskiej armii podjął Wojskowy Instytut Techniki Inżynieryjnej w konsorcjum z Instytutem Metalurgii i Inżynierii Materiałowej PAN oraz Wojskowymi Zakładami Łączności Nr 2 SA W wyniku zrealizowanego projektu rozwojowego finansowanego przez NCBiR powstało szereg prototypów urządzeń, a wśród nich najważniejszy - polowa elektrownia słoneczna o mocy 1 kW [1, 6] zawierająca baterię dziesięciu paneli 100 W wykonanych z krzemowych ogniw monokrystalicznych. Współczesne ogniwa słoneczne wytwarzane są głównie na bazie krzemu krystalicznego (mono i polikrystalicznego). W ostatnich latach następował jednak intensywny rozwój nowych technologii fotowoltaicznych [2]. Wśród nich należy wyróżnić ogniwa cienkowarstwowe CIS, CIGS, CdTe, jak również DSSC i polimerowe, zaletą których jest elastyczność wykonanych z nich paneli, a także mniejsza masa [3]. Niestety sprawność takich ogniw jest wciąż niższa w stosunku do standardowych ogniw krzemowych. Głównym czynnikiem warunkującym możliwości zastos... więcej»

Elektrolitycza obróbka stali chromowo-niklowej w kontekście stanu powierzchni i ubytku materiału
Polerowanie mechaniczne metalu nie zawsze umożliwia uzyskanie odpowiedniej czystości powierzchni. W głębokich rysach technologicznych mogą pozostać zalegające tam obce wtrącenia i zanieczyszczenia. Dodatkowo, warstwa wierzchnia metalu zostaje zdefektowana i wprowadzone zostają do niej naprężenia. Alternatywą dla polerowania mechanicznego jest polerowanie elektrolityczne, które jest z powodzeniem stosowane w wielu gałęziach przemysłu od lotniczego począwszy a na medycznym skończywszy. Elektropolerowanie zmniejsza chropowatość powierzchni oraz usuwa niewielkie uszkodzenia powierzchniowe obrabianego materiału. Na gładkiej powierzchni nie osadzają się zanieczyszczenia, co prowadzi do poprawienia jej odporności korozyjnej [1-4]. Przygotowanie powierzchni elektroobróbką sprzyja poprawie adhezji osadzanych na nich powłok [6]. Polerowanie elektrolityczne jest stosowane również jako technika metalografii w celu ujawniania mikrostruktury materiałów [5]. Współcześnie konstruowane elektropolerki umożliwiają wykonanie zabiegu elektropolerowania lokalnie, na wybranym obszarze powierzchni detalu. Taki sposób elektropolerowania jest bardzo przydatny w kontroli technicznej konstrukcji i dużych urządzeń w miejscu ich ciągłej eksploatacji takich jak np. turbiny czy rurociągi. Dzięki elektropolerowaniu możliwe jest sukcesywne zdejmowanie cienkich warstw metalu bez wprowadzania deformacji struktury, zatem jest ono przydatne do wyznaczania gradientu mikrostruktury oraz naprężeń w detalach w miejscu ich montażu [8]. Obróbka elektrolityczna w zależności od oczekiwanych efektów powierzchni może mieć charakter zarówno polerowania jak i trawienia. Pierwszy z nich polega na intensywnym strawieniu materiału w celu otrzymania wytrawienia o określonej głębokości, w drugim stosuje się niższe napięcie i dłuższy czas (w porównaniu z elektropolerowaniem) w celu wygładzenia powierzchni i ujawnienia mikrostruktury. Odpowiedni dobór parametrów polerowania i tr... więcej»

Obrazowane luminescencyjne do charakteryzacji ogniw i modułów fotowoltaicznych (MAREK LIPIŃSKI, GRAŻYNA KULESZA, ZBIGNIEW STAROWICZ)
Obrazowanie fotoluminescencyjne (PL) i elektroluminescencyjne (EL) są nowymi technikami pomiarowymi, które są stosowane coraz częściej do charakteryzacji ogniw słonecznych, jak również zbudowanych z ogniw tzw. modułów fotowoltaicznych [1-6]. Techniki te są coraz bardziej rozwijane i stosowane nie tylko w ośrodkach naukowych, w których prowadzone są badania nad poprawą procesów technologicznych ogniw, ale również w produkcji wielkoprzemysłowej. Ich najważniejszą zaletą jest duża szybkość uzyskiwania ważnych informacji takich jak rozkład czasu życia nośników mniejszościowych, rozkład rezystancji szeregowej, ujawnienie mikropęknięć. Pomiar efektywnego czasu życia nośników jest o kilka rzędów szybszy w porównaniu ze znaną metodą MWPCD (metodą zaniku foto przewodnictwa w stanie nieustalonym z detekcją mikrofalową). Po raz pierwszy obrazowanie EL [1] w ogniwach i obrazowanie PL w ogniwach i płytkach [2] zostało zademonstrowane w roku 2005. Techniki te są obecnie standardem w laboratoriach oraz w taśmowych procesach produkcyjnych. W obrazowaniu PL można uzyskiwać obraz luminescencji zarówno płytek krzemowych typu "as-cut" jak również po każdym etapie technologicznym. Technika ta jest bezkontaktowa, idealnie więc nadaje się do produkcji przemysłowej, gdyż nie powoduje uszkodzeń mechanicznych. Natomiast w obrazowaniu EL uzyskuje się obrazy tylko ogniw lub modułów. W tym przypadku obserwuje się luminescencję jak w zwykłych diodach świecących LED [3]. W pracy przedstawione są tylko niektóre zastosowania techniki obrazowania luminescencyjnego krzemowych ogniw i modułów fotowoltaicznych w oparciu o prace przeprowadzone w Laboratorium Fotowoltaicznym IMIM PAN w Kozach. Obrazowanie luminescencyjne - zasada działania W obrazowaniu fotoluminescencyjnym (PL) cała powierzchnia badanego materiału półpr... więcej»

Wybrane zagadnienia pomiarów zaburzeń na statkach morskich (Karol Korcz, Beata Pałczyńska, Ludwik Spiralski)
Występowanie silnych, zakłócających pól elektromagnetycznych w środowisku statku morskiego może w sposób bezpośredni wpływać na niezawodność okrętowych urządzeń oraz systemów elektrycznych i elektronicznych. Jest również nieobojętne dla bezpieczeństwa ludzi przebywających w pobliżu silnych źródeł tych pól. Dlatego też problematyka związana z pomiarami zakłóceń i kompatybilnością elektromagnetyczną na statkach morskich jest tak istotna. Efektem pracy zespołu badawczego jest zaprojektowanie komputerowego systemu do pomiaru przede wszystkim pola elektromagnetycznego w zakresie małych częstotliwości, a także badania zaburzeń odbiornika radiokomunikacyjnego. System pracuje w zintegrowanym środowisku programowania LabVIEW, w którym wirtualne przyrządy pomiarowe oprogramowane są z wykorzystaniem opracowanych, autorskich procedur [1-3]. Komputerowy system pomiarowy W schemacie funkcjonalnym systemu pomiarowego można wyróżnić dwie główne części (rys. 1): - sprzętową (czujniki i układy kondycjonowania sygnału, blok akwizycji danych pomiarowych z kartą pomiarową, źródło sygnału testowego), - programową (blok przetwarzania i analizy danych, blok interfejsu graficznego). System umożliwia pomiar charakterystyk zakłóceń małoczęstotliwościowych w sieciach zasilania, urządzeniach i systemach energoelektronicznych, elektronicznych, w tym urządzeniach radiokomunikacyjnych a także pomiar wolnozmiennego pola elektromagnetycznego [4, 5]. Badania wolnozmiennego pola elektromagnetycznego Za pomocą zaprezentowanego systemu pomiarowego dokonano oceny poziomu, w tym emisji pola elektromagnetycznego w odniesieniu do dopuszczalnych wartości zawartych w... więcej»

Analiza właściwości optycznych oraz projektowanie półprzezroczystych cienkich warstw Ag w zakresie VIS-NIR (Jarosław Domaradzki, Danuta Kaczmarek, Michał Mazur, Damian Wojcieszak, Tomasz Jędrzejak )
Cienkie warstwy srebra znajdują zastosowanie w konstrukcji różnych powłok optycznych. Do jednych z najczęściej wykorzystywanych należą powłoki odbijające promieniowanie optyczne w szerokim zakresie długości fali stosowane do wytwarzania luster. W wypadku warstw Ag o grubości od kilku do kilkunastu nanometrów, warstwy takie wykazują częściową przepuszczalność dla światła w widzialnym zakresie widma promieniowania optycznego oraz odbicie światła w zakresie bliskiej podczerwieni. Taka właściwość Ag znajduje z kolei zastosowanie w konstrukcji tzw. powłok niskoemisyjnych, stosowanych powszechnie w szkle architektonicznym. Projektowanie powłok optycznych, przeznaczonych do różnych zastosowań wymaga znajomości przebiegu charakterystyk dyspersji współczynników załamania i ekstynkcji światła materiału, z którego wytworzona będzie powłoka. W wypadku bardzo cienkich warstw, charakterystyki te mają jednak inny przebieg niż obserwowany dla materiałów litych. W niniejszej pracy przedstawiono wyniki badania oraz analizy właściwości optycznych powłok Ag o grubości 5, 10 i 15 nm wytworzonych metodą parowania wiązką elektronową oraz porównano wyniki projektowania powłok Ag z wykorzystaniem danych uzyskanych dla analizowanych warstw. Część eksperymentalna Cienkie warstwy testowe naniesione zostały na podłoża szklan... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Ocena jakości połączeń lutowanych w elektronicznym montażu powierzchniowym (Tomasz Serzysko, Janusz Borecki)
Proces technologiczny montażu elektronicznego jest końcowym etapem procesu produkcyjnego, w którym ostatecznie kształtuje się jakość wyrobu elektronicznego. Proces technologiczny elektronicznego montażu powierzchniowego (SMT) można podzielić na następujące etapy: - nakładanie przez szablon pasty lutowniczej (spoiwa lutowniczego) na pola lutownicze płytki obwodu drukowanego, - układanie elementów elektronicznych SMD (ang. Surface Mounted Device) na powierzchni płytki obwodu drukowanego, - przetapianie spoiwa lutowniczego. - kontrola końcowa wyrobu gotowego. Kontrola wyrobu gotowego jest czynnością wieloetapową. Wykonuje się ją bezpośrednio po procesie lutowania między innymi poprzez kontrolę wizualną pod mikroskopem optycznym oraz badanie elektryczne zmontowanego zespołu. Sprawdza się wtedy zgodność produktu z projektem i przeprowadza obserwację położenia elementów na polach lutowniczych oraz obserwację poszczególnych połączeń lutowanych. Podczas takiej kontroli można wykryć ewentualne wady połączeń takie jak przesunięcie wyprowadzeń elementu względem pól lutowniczych, efekt nagrobkowy, niezwilżenia czy odwilżenia pól lutowniczych. Dostarcza ona również informacji na temat istnienia lub braku połączenia elektrycznego. Formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa główne zadania, jakimi są: - przyłączenie elementów elektronicznych do sieci połączeń obwodu elektrycznego montowanego urządzenia, oraz - mechaniczne zamocowanie elementów na powierzchni płytki obwodu drukowanego. Jakość połączeń lutowanych zależy od wielu czynników, do których należy zaliczyć: parametry prowadzenia procesu montażu elektronicznego, rodzaj pasty lutowniczej, wielkość pól lutowniczych na płytce obwodu drukowanego oraz rodzaj lutownej powłoki ochronnej na powierzchni pól lutowniczych. Prezentowane w niniejszej pracy wyniki, przedstawiają ocenę jakości połączeń lutowanych z zastosowaniem bezołowiowych past lu... więcej»

Metoda skróconego badania niezawodności układów pamięci NAND FLA SH (Krzysztof Bąk)
Podstawą procesu produkcyjnego, na podstawie którego powstał poniższy artykuł, są układy pamięci NAND FLASH dostarczane w postaci rdzeni krzemowych. Rdzenie krzemowe stanowią półprodukt wymagający umieszczenia w obudowie i późniejszego przetestowania. Półprodukt charakteryzuje się nieznanym typem i liczebnością defektów. Defekty te mają nieznane modele i mogą ujawniać się w całym okresie użytkowania urządzenia. Następstwem defektu jest błąd, często bez możliwości wskazania typu i lokalizacji uszkodzenia. Brak dostępu do interfejsu diagnostycznego układów pamięci powoduje, że niemożliwe jest akcelerowanie napięciowe defektów oraz prowadzenie pomiarów wewnętrznych parametrów pracy. Skutkiem tego jest ograniczenie testu do sekwencji: kasowania, programowania, odczytu danych wzorcowych, zadanych przez tester oraz w docelowym środowisku pracy. W przytaczanym procesie produkcyjnym, pierwszym etapem procesu jest test układów pamięci w testerze. Procedura testowa omówiona w [10] składa się z sekwencji algorytmu MATS[6] testujących komórki pamięci znajdujące się w stronach. Pomiędzy cykl zapisu i weryfikacji danych wprowadzona jest kontrola upływności danych polegająca na wygrzewaniu układów pamięci w zadanej temperaturze i czasie. W wyniku przeprowadzonego testu odrzucane są układy pamięci charakteryzujące się nadmierną upływnością danych oraz te, w których liczba błędnych bitów w danych testowych przekracza ustalone progi. Testowanie w aplikacji - którą jest dysk SSD (ang. Solid State Drive), jest przeprowadzane w maksymalnej temperaturze pracy SSD i polega na zapisie/odczycie danych wzorcowych poprzez interfejs SATA [11]. Tak przeprowadzony test jest kontrolą w maksymalnych warunkach użytkowania układów pamięci w docelowym środowisku pracy. Konsekwencją ograniczenia sekwencji testowych do zapisu i odczytu danych jest brak możliwości pobudzania defektów mogących ujawnić się w okresie użytkowania (okres II), w którym głównie powin... więcej»

Metodyka pomiarowa i urządzenia do badania upływności kabli i przewodów elektroenergetycznych stosowanych w podziemnych sieciach górniczych (Jerzy Chudorliński, Paweł Michalski, Piotr Prystupiuk, Radosław Przybysz, Paweł Wlazło)
Jedną z najczęstszych przyczyn powstania wybuchu metanu i pyłu węglowego jest iskrzenie z wadliwej instalacji elektrycznej. Aby do tego nie dopuścić w kopalniach stosowany jest ciągły monitoring rezystancji upływności kabli i przewodów elektroenergetycznych. Podstawową metodą jest badanie rezystancji upływności kabli i przewodów elektrycznych prądem stałym lub przemiennym stosowany w urządzeniach do zabezpieczeń upływnościowych. Badanie upływności kabla lub przewodu elektrycznego powinno odbywać się przy prądzie pomiarowym odpowiednio dobranym dla przestrzeni zagrożonych wybuchem. Przy stwierdzeniu zbyt dużej upływności kabel nie może być używany. Należy go odłączyć i wymienić, co przy długich odcinkach kabla jest procesem kosztownym i długotrwałym. Warunkiem bezpiecznej eksploatacji przewodów oponowych ekranowanych jest równoczesne stosowanie w sieci systemów zabezpieczających. Przy braku zabezpieczeń lub ich niesprawnym działaniu, eksploatacja przewodów może stanowić zagrożenie. Parametry oraz funkcjonalność działania zabezpieczeń muszą być dostosowane do indywidualnych własności konstrukcyjnych przewodu i rodzaju żył oraz ekranów i ich wzajemnej konfiguracji. Powszechnie przyjętym rozwiązaniem jest łączenie ekranu z potencjałem żyły ochronnej. W tych warunkach uszkodzenie izolacji żył roboczych względem ekranu jest równoznaczne z uszkodzeniem izolacji doziemnej sieci. Klasyfikacja metod lokalizacji uszkodzeń W przypadku sieci zasilających stosowanych w podziemnych zakładach górniczych istnieją pewne specyficzne uwarunkowania rzutujące na metodologię i dobór metod przeprowadzania lokalizacji linii energetycznych. Można wyodrębnić trzy grupy metod związane z określaniem miejsca uszkodzenia [2, 4]: - lokalizacja odcinkowa związana z zabezpieczeniem blokującym, które umożliwia identyfikacje i odłączenie od sieci odcinka, w którym nastąpiło uszkodzenie. To uniemożliwia podanie napięcia na uszkodzony odcinek sieci zasilaj... więcej»

Wymagania konstrukcyjne dotyczące spełnienia wymagań kompatybilności elektromagnetycznej dla urządzeń elektroenergetycznej automatyki zabezpieczeniowej (Jerzy Chudorliński, Paweł Michalski, Piotr Prystupiuk)
Kompatybilność elektromagnetyczna Istotną sprawą kompatybilności elektromagnetycznej jest zdolność urządzeń elektrycznych lub elektronicznych do poprawnej pracy w określonym środowisku elektromagnetycznym przez osiągnięcie odpowiedniego poziomu odporności oraz ograniczenie emisji zaburzeń, które mogą zakłócić inne pracujące urządzenia. Przez zaburzenie elektromagnetyczne należy rozumieć każde zjawisko elektryczne, które może pogorszyć działanie urządzenia. Odporność jest zdolnością urządzenia do prawidłowego działania, bez pogarszania jakości, w obecności zakłócenia elektromagnetycznego. Obowiązek ograniczenia zaburzeń oraz uodpornienie na nie nakazuje obowiązująca dyrektywa 2004/108/WE "Kompatybilność elektromagnetyczna (EMC)". Poziomy emisji zaburzeń, jak i odporności na zaburzenia zostały określone w normach PN-EN 50263:2004 [1] i PN-EN 60255- 26:2013 [2]. Urządzenia EAZ są wyposażone w wejścia: pomiarowe, dwustanowe, zasilające oraz wyjścia przekaźnikowe, i obwody transmisji które nazywane są portami. Szczególną rolę odgrywa obudowa, zwykle metalowa, z zaciskiem uziemiającym zwana portem obudowy. Emisja zaburzeń ma miejsce poprzez obudowę, jak i poprzez port zasilający. Procedura badań i kryteria akceptacji dotyczące emisji zostały podane w normach (PN-EN 60255-25 [3] i PN-EN 55022). Odporność na zaburzenia dotyczy wszystkich portów dostępnych w urządzeniu, łącznie z obudową i przewodem uziemiającym. Źródła zaburzeń EMC dla urządzeń EAZ [5] Urządzenia elektryczne, nawet podczas normalnej pracy oraz zjawiska naturalne związane np. z wyładowaniami występującymi podczas burz, lub związane z wyładowaniami elektrostatycznymi zawsze wytwarzają zaburzenia elektromagnetyczne. Powinno się dążyć do zminimalizowania zaburzeń emitowanych przez źródła, aby nie przekraczać poziomu dopuszczonego dla innych urządzeń. Źródłami zaburzeń elektromagnetycznych dla urządzeń EAZ są [5]: ... więcej»

Nowa idea w technologii recyklingu odpadów płytek obwodów drukowanych (Jerzy Lenik)
Skrawki płytek obwodów drukowanych (pcb) pozostające jako ścinki z produkcji nowych płytek bądź z płytek ze zużytego sprzętu elektronicznego (ZSEE), stanowią znaczący ilościowo odpad, którego rocznie przybywa na świecie kilkaset tysięcy ton, w tym w Polsce, kilkaset ton. Odpad ten zawiera cenne metale: miedź, cynę, nikiel, złoto, oraz odporne chemicznie i mechanicznie kompozyty na osnowie duroplasycznych tworzyw sztucznych (głównie żywic epoksydowych lub poliestrowych). Materiał ten powinien być ponownie wykorzystywany. Może stanowić źródło surowców. Odpad, jak dotychczas, nie znalazł większego zainteresowania recyklerów. Głównie, z uwagi na brak opłacalnej technologii, dostosowanej do specyfiki tego odpadu. Istniejące rozwiązania Dostępne technologie, stosowane do recyklingu zużytego sprzętu elektronicznego i elektronicznego, polegają w zasadzie na mieleniu/strzępieniu odpadu na mniejsze elementy a następnie podawaniu uzyskanej mieszaniny segregacji. Mieszaninę rozdziela się na frakcje ziaren o różnych parametrach fizycznych: gęstości, podatności magnetycznej, stałej dielektrycznej, przewodności elektrycznej, absorpcji promieniowania, stosując metody segregacji pneumatycznej, hydrodynamicznej lub elektromagnetycznej... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Narodowa Inicjatywa Fotoniki (Ryszard S. Romaniuk)
Szybki rozwój zaawansowanych technologii - a taką jest fotonika, i utrzymanie konkurencyjnej pozycji na rynku globalnym, wymaga inicjatyw globalnych w postaci planowania i realizacji bardzo dużych programów badawczych i przemysłowych, obecnie na poziomie miliardów lub dziesiątków miliardów euro. Fotonika nieodwracalnie zastępuje klasyczne metody produkcji. Mechaniczne metody obróbki w wielu sektorach przemysłów wytwórczych ustępują addytywnym metodom fotonicznym. Oświetlenie klasyczne zastępowane jest na masową skalę fotonicznym. Klasyczne radary ustąpią, wcześniej czy później, radarom optycznym. Konieczne jest szkolenie kadr do wdrażania nowych technologii fotonicznych oraz przekonanie społeczeństwa do zmian, w warunkach wzmacniającej się konkurencji globalnej. Nagrodą dla prymusa technologii jest, w dzisiejszych czasach otwartego informacyjnego społeczeństwa internetowego, szybkie opanowanie rynku globalnego, osiągnięcie największych zysków, a także możliwość narzucenia swoich standardów, a więc uzyskanie trwalszych efektów. Jak to zrobić? Częściowo na to pytanie stara się odpowiedzieć Narodowa Inicjatywa Fotoniki NPI . Sponsorami Narodowej Inicjatywy Fotoniki są dwa największe światowe zawodowe organizacje fotoniczne: Optical Society of America - OSA, oraz International Society for Optics and Photonics - SPIE . "Fotonizacja społeczeństwa" Przez "fotonizację społeczeństwa" rozumiane są ściśle skorelowane, globalne działania edukacyjne, szkoleniowe, naukowo-techniczne, organizacyjne, gospodarcze, ekonomiczne, polityczne, a także rozpowszechniające i społeczne, a nawet psychologiczne. Amerykańska masywna inicjatywa "fotonizacji społeczeństwa" nosi nazwę NPI - National Photonics Initiative [1]. Celem inicjatywy podjętej wspólnie w USA przez szereg organizacji społecznych, naukowotechnicznych [2-6], gospodarczych, biznesowych, a także rządowych jest: "Lighting the Path to a Competitive, Secure Future". Głównie gospodarcza ... więcej»

Zastosowanie czujników inercjalnych w nawigacji personalnej (Michał Łabowski, Piotr Kaniewski)
Bezwładnościowa nawigacja pieszych (ang. Personal Dead- Reckoning) polega na określaniu położenia osoby w danej chwili czasu oraz wyznaczaniu trajektorii przemieszczeń na podstawie informacji pochodzących z czujników inercjalnych (przyspieszeniomierze oraz giroskopy) [10]. Należy ona do tzw. metod zliczania drogi, w której położenie obiektu określane jest za pomocą dwukrotnego całkowania mierzonych przyspieszeń. Położenie obiektu wyznaczane jest jako suma przyrostów współrzędnych w określonym kierunku z początkowymi wartościami współrzędnych. W celu zliczania drogi należy zatem dysponować informacją o orientacji przestrzennej, w tym o kierunku ruchu (kursie), oraz o przyspieszeniach liniowych [11]. Zaletą systemów bezwładnościowych jest ich autonomiczność, dzięki czemu zadanie pozycjonowania może być realizowane bez wykorzystania zewnętrznych źródeł informacji, np. odbiornika GPS. Cecha ta ma zasadnicze znaczenie dla służb operujących wewnątrz budynków (np. straż pożarna), gdzie sygnał GPS jest najczęściej niedostępny. Ponadto wykorzystanie systemów bazujących na GPS jest niepożądane w niektórych zastosowaniach wojskowych. Wadą nawigacji bezwładnościowej jest narastanie błędów w czasie, wobec czego rozwijane są także systemy nawigacji pieszych wykorzystujące aktywne źródła sygnałów: podczerwieni [4], ultradźwięków [9]. Systemy takie wymagają zastosowania wyspecjalizowanej infrastruktury, co znacząco ogranicza ich wykorzystanie. Cechują się jednak błędami określania położenia obiektu, które są niezależne od czasu [10]. Metody nawigacji pieszych oparte o analizę obrazu uzyskiwanego z jednej lub wielu kamer wizyjnych są obecnie dynamicznie rozwijane. Systemy takie wykorzystują algorytm SLAM (ang. Simultanous Localization And Mapping), w którym urządzenie tworzy mapę otoczenia oraz określa względem niego własną lokalizację [5]. Wysoki potencjał algorytmu SLAM został dostrzeżony przez Google, które w ramach projektu "Tango" ro... więcej»

Programowa implementacja kontrolera magistrali CAN w lokalnych sieciach sensorowych (Kazimierz KAMUDA, Mariusz SKOCZYLAS, Jerzy ŚWIĘCH, Włodzimierz KALITA)
Kontroler CAN wykonuje ściśle określone funkcje w układach elektronicznych współpracujących z magistralą CAN. Podstawową funkcją kontrolera jest sprzętowa realizacja protokołu magistrali CAN, która obejmuje generowanie pakietów danych według specyfikacji standardu CAN, odbiór danych oraz obsługę błędów. Dzięki kontrolerowi układ mikroprocesorowy współpracujący z magistralą jest odciążony od dodatkowych obliczeń. Mikrokontroler, który wcześniej został skonfigurowany do wysyłania i odbierania wiadomości na magistralę, musi jedynie dostarczyć kontrolerowi określone wartości identyfikatora i danych do kontrolera CAN, a cała reszta funkcji potrzebnych do działania w tym systemie jest realizowana w tym układzie scalonym. Najczęściej kontroler magistrali CAN realizowany jest w postaci sprzętowej w mikrokontrolerze, bądź w formie oddzielnego układu scalonego. Możliwa jest jednak programowa implementacja kontrolera, dzięki której typowy mikrokontroler 8 bitowy będzie mógł odbierać i wysyłać dane na magistrali. Wprowadzenie programowej implementacji wiąże się pewnymi ograniczeniami. Będą nimi mniejsza ilość wolnej pamięci flash oraz większe obciążenie procesora na czas odbierania i przetwarzania danych. Jednak w wielu przypadkach wady te nie dyskredytują tego rozwiązania. Programowa implementacja niesie ze sobą też wiele zalet, takich jak mniejsze koszty urządzenia, możliwość działania z wykorzystaniem tanich mikrokontrolerów oraz znaczne ograniczenie poboru mocy związanego z pracą dodatkowego układu kontrolera CAN. Koncepcja programu Program implementujący funkcje kontrolera magistrali CAN nie musi w pełni odzwierciedlać działania sprzętowego kontrolera CAN. Wynika to z faktu, że istnieje tylko kilka funkcji niezbędnych do wymiany danych na magistrali, więc szereg działań kontrolera może zostać pominięte lub zastąpione. Program, który został opracowany można podzielić na trzy części. W pierwszej części znajdują się funkcje, bez któ... więcej»

Przepływomierz kolanowy do pomiaru strumieni przepływu gazu (Michał Kamiński, Artur Andruszkiewicz)
Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS (Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)
Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Elektrochemiczny czujnik samopolaryzujący do naskórnego pomiaru prężności tlenu w krwi tętniczej (Tadeusz Pałko, Włodzimierz Łukasik, Józef Przytulski)
Prężność tlenu pO2 we krwi tętniczej jest ważnym parametrem obrazującym ilość tlenu rozpuszczonego w osoczu, wyrażonym w jednostkach ciśnienia oddziaływującego na osocze. W warunkach prawidłowych w krwi tętniczej pO2 &#8776; 80 mm Hg (10,6 kPa), a w powietrzu atmosferycznym pO2 &#8776; 154 mm Hg (21 kPa). Parametr ten umożliwia wykrycie zarówno niedotlenienia krwi tętniczej jak i groźbę wystąpienia zatrucia tlenowego, co może ujawnić się w trakcie leczenia w komorze hiperbarycznej lub leczenia czystym tlenem. Przedmiotem niniejszego artykułu jest elektrochemiczny czujnik samopolaryzujący do nieinwazyjnego naskórnego pomiaru prężności tlenu we krwi tętniczej oparty na ogniwie galwanicznym zwanym też komor-pomiarową Mackeretha oraz wyposażony w układ termoregulacji do grzania i termostatowania badanego miejsca obszaru tkankowego skóry i wnętrza czujnika, aby zapewnić wystarczająco dobrą dyfuzję tlenu z krwi w naczyniach kapilarnych do komory pomiarowej czujnika. Dotychczas znane i stosowane czujniki do nieinwazyjnego pomiaru prężności tlenu pO2 we krwi tętniczej metodą naskórną działają na zasadzie opisanej przez Clarka w artykule [1] odnoszącym się do pomiaru pO2 bezpośrednio w krwi metodą in vitro. Na przełomie lat 1970-tych i 1980-tych i później, zasada ta została zmodyfikowana, udoskonalona i rozszerzona do nieinwazyjnych pomiarów naskórnych pO2 w krwi tętniczej. Główna modyfikacja czujników naskórnych w stosunku do mierzących pO2 bezpośrednio w krwi polegała na wprowadzeniu układu termoregulacji do podgrzewania obszaru pomiarowego. W czujnikach pO2 opartych na zasadzie Clarka wykorzystuje się zjawiska oksyredukcyjne zachodzące na powierzchni, odpowiednio dobranych i spolaryzowanych z zewnętrznego źródła napięcia, elektrod zanurzonych w odpowiednim wodnym elektrolicie, najczęściej KCl do którego dyfunduje tlen przez membranę o właściwościach hydrofobowych tzn. nieprzepuszczającą cząsteczek wody z badanego środowiska. Na... więcej»

Zastosowanie operatora krzyżowania równomiernego w przypadku algorytmów ewolucyjnych z krzyżowaniem wieloosobniczym (Zbigniew Handzel, Mirosław Gajer)
Różnorodne techniki obliczeniowe, określane wspólnie mianem systemów ewolucyjnych cieszą się obecnie niesłabnącym zainteresowaniem, a obszary ich potencjalnych zastosowań nieustannie się powiększają, obejmując między innymi zagadnienia optymalizacji wielokryterialnej o dynamicznie zmieniających się uwarunkowaniach [1]. Do tego rodzaju technik obliczeniowych zaliczane są, między innymi, algorytmy ewolucyjne, algorytmy genetyczne, programowanie ewolucyjne, programowanie genetyczne, a także tzw. algorytmy rojowe, naśladujące zjawiska zachodzące w obrębie zbiorowości owadów społecznych, takich jak na przykład mrówki i pszczoły [2]. Zasady działania wymienionych technik obliczeniowych sprowadzają się do cyklicznego wykonywania odpowiednich operacji genetycznych, do których zalicza się przede wszystkim wzajemne krzyżowanie osobników, mutację ich materiału genetycznego oraz selekcję osobników, które będą mogły przejść do kolejnego pokolenia [3]. Tematyka niniejszego artykułu została poświęcona genetycznemu operatorowi krzyżowania, który realizowany jest w wersji tzw. krzyżowania wieloosobniczego. Jak sama nazwa wskazuje krzyżowanie wieloosobnicze sprowadza się do jednoczesnego zastosowania operatora krzyżowania do więcej niż dwóch osobników. Tego rodzaju proces nie ma swej bezpośredniej analogii w świecie przyrody [4]. Zastanawiając się nad przyczynami takiego stanu rzeczy, jako na główny powód należy wskazać prawdopodobnie na ewentualne trudności praktycznej realizacji w naturalnych warunkach procesu jednoczesnej wymiany materiału genetycznego pomiędzy trzema, a tym bardziej pomiędzy większą liczbą osobników. Prawdopodobnie tego rodzaju proces okazałby się być "zbyt kosztowny" w praktycznej realizacji, aby przyroda była skłonna go wypróbować podczas trwającej ponad miliard lat ewolucji życia na Ziemi. Jednak w przypadku sztucznych system... więcej»

Wielokrotny wybór czyli rozważania o pewnych pytaniach testowych (Wojciech Przyłuski )
Wśród pytań zamkniętych (czyli takich, w których testowany wybiera odpowiedzi spośród pewnej liczby konkretnie sformułowanych propozycji) najczęściej spotykanymi pytaniami - obok pytań polegających na wskazaniu jednej poprawnej odpowiedzi - są tzw. pytania wielokrotnego wyboru. Słowo "wielokrotnego" jest przy tym różnie interpretowane przez autorów publikacji związanych z tematyką testowania; może oznaczać zarówno liczbę proponowanych do wyboru opcji, jak i liczbę możliwych prawidłowych odpowiedzi. Każdy chyba odpowiadał kiedyś na pytania polegające na wyborze właściwej odpowiedzi. Polega to na tym, że dostaje się kilka, rzadziej kilkanaście możliwości do wyboru i należy zaznaczyć jedną lub kilka odpowiedzi uznanych za prawidłowe. Możliwość zaznaczenia więcej niż jednej odpowiedzi zależy od treści polecenia zawartej w pytaniu lub od formy graficznej pytania, która sugeruje bądź wręcz determinuje (testy komputerowe) zasady udzielania odpowiedzi. Spośród kilku polskich i angielskich nazw proponowanych w literaturze dla pytań wyboru najtrafniejsze wydają się określenia z pracy Marka Hyli [1]. Wymienia on dwa typy pytań wyboru: 1. pytania jednokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Single Answer, MCSA), 2. pytania wielokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Multiple Answer, MCMA). Dopiero te dwie polskie i odpowiadające im angielskie nazwy w pełni oddają sens jaki chcemy przypisywać tym typom pytań. W pierwszej chwili różnica pomiędzy tymi typami pytań wydaje się niewielka. Okazuje się jednak, że wielość możliwych do wskazania odpowiedzi stwarza w sferze weryfikacji wiedzy zupełnie nowe, nieporównywalne z pytaniami jednokrotnego wyboru, możliwości, rodząc jednocześnie wiele dodatkowych problemów. Tymi właśnie problemami chcemy się zająć, przy czym używać będziemy sformułowań: "pytanie wielokrotnego wyboru" i "wielokrotny wybór" w sensie drugiej z podanych wyżej definicji. Test t... więcej»

Zatrzaskiwanie się pasożytniczego tyrystora i szybkie zatrzaskiwanie się pasożytniczego tyrystora (Bartłomiej Półtorak, Jacek Szatkowski )
W komercyjnie dostępnych układach scalonym (np. wzmacniaczu operacyjnym, mikroprocesorze) znajduje się więcej tranzystorów i diod niż niezbędna ilość do wykonywania podstawowych funkcji danego urządzenia. Te dodatkowe elementy półprzewodnikowe (np. diody poziomujące) na wejściu i wyjściu układu scalonego są niezbędne do zapewnienia prawidłowego działania układu scalonego w żądanych warunkach. Diody poziomujące zabezpieczają przed przepięciami jak i zniekształceniami sygnałów. Używane są również inne bardziej złożone elementy półprzewodnikowe, które zabezpieczają przed uszkodzeniem układów scalonych przez wyładowaniami elektrostatycznymi. Pochodzenie takich impulsów może mieć różne źródła. Aby ułatwić charakteryzację poszczególnych źródeł zagrożenia wyróżniono trzy podstawowe modele: - model ciała ludzkiego- Kondensator o pojemności 100 pF jest ładowany do wysokiego napięcia (od 200 V do 8 kV) a następnie jest rozładowywany przez rezystor 1,5 k&#937; i obciążany element. Na rys. 1 jest przedstawiony schemat modelu ciała ludzkiego i kształt impulsu, jaki generuje dany model. Długość impulsu osiąga wartość kilku dziesiątych mikrosekundy a wysokość impulsu prądowego nie - model naładowanego urządzenia- polega na zastąpieniu naładowanego elementu scalonego układem zbudowanym z kondensatora (1-20 pF) rozładowywanego przez rezystor o pojemności 1 &#937;. Uzyskiwane tą metodą impulsy mają czas trwania około 2ns i wysokość większą niż 2 A. Na rysunku trzecim (rys. 3) został przedstawiony model naładowanego urządzenia. Rys. 1. a) model ciała ludzkiego rozładowywany poprzez rezystor 1,5 ... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
On designing a Nyquist fir filter of fractional group delay and phase delay (Ewa Hermanowicz, Miroslaw Rojewski )
Nyquist filters are crucial components in data communications [1]. Their traditional attributes are governed by the fulfilment of Nyquist condition. We wish to design a filter such that its impulse response satisfies the Nyquist first criterion [7] (1) where L is an positive integer, preferably odd, called the oversampling ratio. In digital (isochronous) signalling it indicates the number of discrete signal samples (Sa) per symbol (repetition) interval. Formula (2) expresses the Nyquist criterion in the normalized (fraction of sampling rate) frequency domain f, (2) A design of the frequency response H(f ) that satisfies the Nyquist conditions (1) and (2) is generally too restrictive and may not lead to a satisfactory filter. Moreover, the Nyquist filter conditions should be satisfied as closely as possible to minimize interference between successive data symbols (ISI) when channel distortion is absent. Also it is desirable to keep the length of the filter as small as possible to minimize the implementation cost. The goal of this paper is to formulate a novel concept for the Nyquist filter that has the additional ability to introduce a fractional sample delay otherwise referred to as subsample delay. Such a special filter has not been considered yet [2], [3], [4], [5], [6]. Hitherto in the literature the Nyquist filter and the fractional delay = - &#177; = = - = otherwise arbitrary 0, ( 1) / 2 , 1, 2, 3, 1, ( 1) / 2 [ ] n N mL m L n N h n ... więcej»

Zagadnienia związane z przekładem zaimków osobowych w systemie tłumaczenia komputerowego typu Human-Aided Machine Translation (Zbigniew Handzel, Mirosław Gajer, Joanna Dybiec-Gajer )
Przekład komputerowy już od dobrych kilkudziesięciu lat pozostaje w kręgu zainteresowań interdyscyplinarnych zespołów badawczych złożonych z naukowców reprezentujących różne dziedziny wiedzy, poczynając od teoretyków informacji, poprzez specjalistów od algorytmów, programistów, a kończąc na językoznawcach, przekładoznawcach i filologach. Niestety, budowa systemu komputerowego przekładu, który byłby w stanie wyeliminować całkowicie człowieka i tym samym sprawić, że zawód tłumacza stanie się w przyszłości zbędny, wciąż pozostaje swego rodzaju niedoścignionym ideałem [1]. Obecnie systemy komputerowego przekładu są realizowane przede wszystkim jako systemy całkowicie automatyczne, tzn. takie, na wejście których użytkownik zadaje gotowy tekst zapisany w języku wyjściowym, a na ich wyjściu oczekuje pojawienia się przekładu tego tekstu na wybrany język docelowy. Tego rodzaju w pełni automatyczny przekład jest wykonywany przez komputer najczęściej z wykorzystaniem metod regułowych bądź statystycznych, przy czym znane są także rozwiązania hybrydowe, stanowiące różnego rodzaju połączenia wybranych metod [2]. Innym, w opinii autorów, niezwykle obiecującym kierunkiem badań w dziedzinie komputerowego przekładu jest rozwijanie systemów komputerowego przekładu wspomaganych przez człowieka, które w angielskojęzycznej literaturze przedmiotu określane są terminem Human-Aided Machine Translation. W przypadku tego rodzaju rozwiązań użytkownik systemu przez cały czas jego działania w sposób aktywny uczestniczy w procesie przekładu, rozwikłując wszelkiego typu wieloznaczności języka naturalnego (leksykalne i składniowe), które stanowią podstawową przeszkodę stojącą na drodze do budowy w pełni użytecznych systemów komputerowego przekładu [3]. Przedmiotem niniejszego artykułu jest rozwijany obecnie przez autorów system komputerowego przekładu typu Human-Aided Machine Translation. System ten pomyślany jest jako system wielojęzyczny, który jest otw... więcej»

Metoda wyznaczania parametrów składowych wielotonów wybranych idiofonów (Andrzej Meyer, Marek Portalski)
Idiofony to grupa instrumentów muzycznych, w których źródłem dźwięku (wibratorem) jest ciało stałe mające niezmienną, naturalną sprężystość. Tym źródłem jest najczęściej cały instrument. Idiofony mogą wydawać dźwięki o charakterze szumowym lub o określonych częstotliwościach - wielotony. Zależy to od właściwości fizycznych elementu drgającego. Większość idiofonów to instrumenty perkusyjne. Należą do nich np. wibrafon, dzwony, gongi czy stosowane w terapii misy dźwiękowe [2]. Analiza dźwięków takich instrumentów jest zagadnieniem trudnym ze względu na ich wybitnie niestacjonarny charakter. Dlatego też wykorzystanie typowego spektrogramu nie daje tu zadawalających wyników. Autorzy skoncentrowali się w swoich badaniach na wybranej grupie idiofonów wydającej dźwięki będące wielotonami, na ogół wielotonami nieharmonicznymi. Wynikła stąd potrzeba napisania specjalistycznego programu pozwalającego na wyznaczenie najważniejszych parametrów takich dźwięków. Wielotony i ich parametry Wielotony to sygnały będące sumą składowych sinusoidalnych. W przypadku całkowitych krotności częstotliwości podstawowej mamy wielotony harmoniczne, czyli sygnały odkształcone posiadające okres pierwszej harmonicznej. W przypadku niecałkowitych zależności pomiędzy częstotliwościami składowych powstają wielotony nieharmoniczne, w których mogą powstawać dudnienia, a okres sygnału zależny od najmniejszej wspólnej wielokrotności częs... więcej»

Detekcja aktywności istot żywych ukrytych za ścianą (Waldemar SUSEK, Bronisław STEC, Mirosław CZYŻEWSKI, Czesław REĆKO, Adam SŁOWIK)
Współczesne warunki stawiają wysokie wymagania systemom radioelektronicznym. Pojawia się całe spektrum zastosowań, zarówno w ramach systemów wojskowych i specjalnych, jak i całkowicie cywilnych, komercyjnych. Zagrożenia terrorystyczne i inne podobnego typu sytuacje kryzysowe stwarzają zapotrzebowanie na systemy wykrywania i przeciwdziałania różnorodnym zagrożeniom terrorystycznym, lub innym, stwarzającym zagrożenie dla osób lub instytucji państwowych. Często też systemy takie wspierają działania służb ratowniczych, poszukiwawczych, lub też służą celom ściśle komercyjnym. Do niedawna radary szumowe, ze względu na niestabilność źródeł sygnału oraz konieczność stosowania specyficznych rozwiązań przy ich konstrukcji, nie były zbyt powszechne. Ostatnio, ze względu na specyficzne cechy, obserwuje się coraz większą liczbę aplikacji z ich wykorzystaniem, zarówno specjalnych, jak i komercyjnych. Cechy sygnałów szumowych są znane od kilkudziesięciu lat, jednak problem z ich generacją i zapewnienia stabilności parametrów sygnału nastręczał wiele problemów. Również odbiór tego typu sygnałów i związana z nim specyfika przetwarzania, powodowały, że konstrukcje miały charakter eksperymentalny [2-4]. Zadaniem lokalizatora jest wykrycie osób, przebywających za przesłonami niemetalowymi, w praktyce są to najczęściej: drewniana lub murowana ściana, okno, drzwi, lub inne podobne przesłony. Ściana murowana lub inna, wzmocniona prętami metalowymi, może być przejrzysta dla fal radiowych, jeżeli użebrowanie jest niezbyt gęste. Ścisłe określenie tego problemu wymaga niezależnych badań. Drugim istotnym problemem przy pracy takiego radaru jest odróżnienie obiektów stałych, takich jak: krzesło, biurko, szafa lub inne przedmioty od odbicia i wyróżnienia, jakie dają istoty żywe, w tym także człowiek. Spełnienie powyższych wymagań można uzyskać stosując do wyróżniania obiektów odbiornik korelacyjny, współpracujący z sygnałem szumowym [5]. Budowa lokalizat... więcej»

Zastosowanie stereowizji we wspomaganiu operatorów monitoringu wizyjnego (Julian Balcerek, Adam Dąbrowski, Adam Konieczka)
Wśród zagrożeń występujących we współczesnym środowisku zurbanizowanym rozróżniamy katastrofy naturalne, wypadki i popełniane przestępstwa. Na przestrzeni wielu lat ludzie wypracowali metody przeciwdziałania zagrożeniom. Techniczne metody są oparte na obserwacji, wykrywaniu i, w miarę możliwości, na eliminacji lub ograniczeniu skutków występowania zagrożeń. Jednym ze sposobów obserwacji są systemy monitoringu wizyjnego. Obsługa systemu monitoringu nastręcza jednak wielu problemów. Długotrwałe oglądanie obrazu przez operatora jest monotonne i nużące. W związku z tym po pewnym czasie słabnie uwaga i koncentracja operatora. W ostatnich latach są rozwijane techniczne możliwości wspomagania obsługi systemu monitoringu wizyjnego, odnoszące się do obserwowanych osób i obiektów. Osoby mogą być automatycznie wykrywane, śledzone i liczone [1]. Rozpoznawane są twarze, płeć i sposób chodu [2]. Wykrywane jest przekraczanie linii na dworcach kolejowych, przechodzenie na czerwonym świetle, czy też pozostawianie bagaży przez podróżnych [1, 3]. Dym i ogień również mogą być wykrywane [3]. Istnieją metody do automatycznego wykrywania, rozpoznawania, śledzenia i zliczania pojazdów oraz do wykrywania zatorów drogowych [4, 5]. Zabronione manewry wykonywane przez kierujących pojazdami, takie jak: parkowanie i skręcanie w niedozwolonych miejscach lub jazda w niewłaściwym kierunku na drogach jednokierunkowych również są wykrywane [3]. Numery tablic rejestracyjnych mogą być automatycznie odczytywane, a kolizje i wypadki drogowe wykrywane [6, 7]. Techniczne możliwości wspomagania operatorów monitoringu wideo poprawiają wydajność w przypadku średnio skomplikowanych zadań. Jednak dowiedziono, że operator, który jest skupiony na prostym zadaniu, ma nawet lepszą wydajność, kiedy nie korzysta z systemów do automatycznej analizy sygnału wideo [8]. Jednym z głównych wymogów stawianych operatorowi monitoringu wizyjnego jest zdolność utrzymywania koncentracji... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Detektor upadków oparty na dyskretnej transformacie falkowej oraz niezależnych klasyfikatorach SVM (Bartłomiej Wójtowicz, Andrzej P. Dobrowolski)
Postęp medycyny oraz technologii przyczynił się do wzrostu średniej długości życia człowieka. Przesunięcie demograficzne w kierunku wyższej średniej długości życia, przyczynia się do zwiększenia odsetka ludzi starszych [1, 2]. Tzw. proces starzenia się społeczeństwa niesie za sobą szereg konsekwencji, które dotyczyć mogą między innym obszaru społecznego, psychologicznego, ekonomicznego oraz politycznego [3]. Z tego powodu bardzo ważne staje się zapewnienie właściwej opieki medycznej osobom najbardziej narażonym na problemy zdrowotne, tj. osobom w wieku powyżej 65 roku życia [3, 4]. Bardzo istotnym problemem tej grupy wiekowej są upadki, z którymi często związane są poważne konsekwencje. Skutkiem postępujących z wiekiem człowieka procesów fizjologicznych, charakteryzujących się zmianami w jego układzie nerwowym, jest spowolnienie procesów myślowych, spadek napięcia mięśniowego, zaburzania równowagi oraz spowolnienie reakcji obronnych [3]. W efekcie znacząco wzrasta ryzyko upadków, a w następstwie prawdopodobieństwo wystąpienia urazów. Należy w tym miejscu podkreślić, jak istotny problem stanowią upadki. Mianowicie około 33% społeczeństwa w wieku powyżej 65. roku życia narażone jest na upadek i odsetek ten wzrasta wraz z wiekiem [4, 5]. Dane z roku 2002 podają, że upadki doprowadziły do śmierci 391 tysięcy osób, a co czwarte zdarzenie miało miejsce w krajach o wysokich dochodach [4]. Ponad połowa zdarzeń upadków prowadzi do hospitalizacji i skutkuje ograniczeniem sprawności ruchowej człowieka lub zgonem [4, 6, 7, 8]. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych w postaci lęków, depresji czy ograniczenia aktywności ruchowej [3]. W [9] zdefiniowano to jako syndrom poupadkowy. Bardzo szybka detekcja niekontrolowanego upadku człowieka pozwala na skrócenie czasu pomiędzy wystąpieniem upadku, a udzieleniem przez właściwe służby medyczne niezbędnej pomocy [10, 11]. Niniejszy artykuł jest kontynuacją prac zapoczątko... więcej»

Kształtowanie szumu w fonicznych przetwornikach a/c i c/a sigma-delta (MARCIN LEWANDOWSKI, ZBIGNIEW KULKA)
Szczególnie istotną rolę w systemach zapisu i odtwarzania dźwięku, określanych jako systemy hi-fi (high-fidelity), odgrywają wielobitowe (16-24-bitowe) przetworniki analogowo-cyfrowe (a/c) i cyfrowo-analogowe (c/a), pracujące z częstotliwościami próbkowania do 96/192 kHz, tworzące odrębną klasę przetworników fonicznych (audio converters) [1]. Przetworniki a/c i c/a działające z wykorzystaniem modulacji impulsowo-kodowej (PCM - pulse-code modulation), zwane powszechnie konwencjonalnymi przetwornikami PCM są stosowane w cyfrowej technice fonicznej od początku jej rozwoju. Przetwarzanie analogowego sygnału fonicznego na sygnał cyfrowy metodą kodowania PCM polega na wykonaniu trzech zasadniczych operacji: próbkowania równomiernego (ze stałym okresem próbkowania), wielobitowego kwantowania liniowego (ze stałym krokiem kwantowania) i kodowania. Wynikiem przetwarzania jest cyfrowy sygnał foniczny w formacie PCM, charakteryzowany przez częstotliwość próbkowania fS i rozdzielczość słów wyjściowych N w bitach. Przetworniki PCM mogą pracować z częstotliwością próbkowania (szybkością) Nyquist&#8217;a fN (Nyquist-rate PCM converters), tj. fS &#8805; fN = 2&#183;fm, gdzie fm jest pasmem analogowego sygnału wejściowego. Częściej jednak pracują z nadpróbkowaniem (oversampled PCM converters) i wówczas częstotliwość próbkowania fS = L&#183;fN, gdzie L jest współczynnikiem nadpróbkowania (oversampling ratio) równym fS /(2&#183;fm ), którego wartości mogą wynosić 2, 4, 8 lub 16. Choć nadpróbkowanie umożliwia zwiększenie stosunku sygnału do szumu SNR (signal-to-noise ratio) oraz uproszczenie konstrukcji analogowych filtrów dolnoprzepustowych (FDP) na wejściu przetwornika a/c (ochronnego, antyaliasingowego) i wyjściu przetwornika c/a (rekonstruującego, antylustrzanego), to jednak pociąga za sobą konieczność użycia cyfrowego filtru decymacyjnego na wyjściu przetwornika a/c i cyfrowego filtru interpolacyjnego na wejściu przetwornika c/a. Foniczne p... więcej»

Cechy barier elektromagnetycznych w ochronie podzespołów i urządzeń radioelektronicznych przed skutkami oddziaływania impulsu elektromagnetycznego dużej mocy (Marian WNUK, Zdzisław CHUDY)
Cechą charakterystyczną współczesnych urządzeń radioelektronicznych jest ich ograniczona odporność na oddziaływanie napięć i prądów udarowych dochodzących do tych urządzeń z sieci zasilającej lub linii przesyłu sygnałów, a pochodzących od energii zakłóceń i zaburzeń promieniowanych bądź przewodzonych. Powstające przepięcia i przetężenia są przyczyną utraty sprawności pojedynczych lub grupy podzespołów, a tym samym funkcjonalności danego urządzenia bądź całego systemu. Największe zagrożenie dla utrzymania sprawności technicznej i pełnej funkcjonalności współcześnie eksploatowanych urządzeń radioelektronicznych stanowi impuls elektromagnetyczny dużej mocy zakresu mikrofal, który można generować przy wykorzystaniu celowo zbudowanych generatorów mikrofal dużej mocy. Efektem oddziaływania może być czasowe lub częściowe obezwładnienie techniczne z uszkodzeniem włącznie. Podstawowa metoda ochrony bądź zminimalizowania ryzyka uszkodzeń to właściwe zastosowanie barier elektromagnetycznych. Dostępne systemy ekranujące znacząco różnią się między sobą pod względem skuteczności i opłacalności. Większość z nich jest zbyt skomplikowana w montażu i zaawansowana technologicznie, przez co zbyt droga. Współczesne zagrożenia elektromagnetyczne Niejonizujące pola elektromagnetyczne to jeden z bardziej tajemniczych i budzących niepokój czynników fizycznych występujących w środowisku człowieka. Towarzyszą one człowiekowi od momentu, w którym nauczono się wytwarzać energię elektryczną, a następnie przesyłać ją przy pomocy prądu elektrycznego. Obecnie obserwuje się systematyczny wzrost sztucznych źródeł promieniowania elektromagnetycznego (PEM), tj. celowo wytwarzanych przez człowieka. Głównym powodem, dla którego PEM jest obiektem zainteresowania badaczy jest to, że jest ono formą energii. Energia ta rozprzestrzenia się z prędkością światła w postaci promieniowania elektromagnetycznego. Kiedy w polu PEM znajdzie się obiekt materialny (np. człowiek)... więcej»

Zastosowanie metody wariancji Allana do analizy źródeł błędów losowych czujników inercjalnych (Jacek Paszek, Piotr Kaniewski)
Czujniki inercjalne są szeroko stosowane w systemach nawigacyjnych, aplikacjach autopilotów, układach stabilizacji położenia platform, czy w systemach digitalizacji ruchu (Motion Capture). Niezależnie od aplikacji, implementowany w systemie czujnik musi spełniać jej specyficzne wymagania. Producenci czujników inercjalnych zwykle podają jedynie ich podstawowe parametry, które pozwalają określić tylko przybliżoną dokładność pozycjonowania w systemie INS [1, 2]. Dokładniejszą informację o parametrach szumowych czujników można uzyskać wyznaczając na podstawie serii pomiarów funkcję gęstości widmowej mocy PSD (Power Spectral Density) lub korzystając z metody analizy w dziedzinie czasu, tzw. metody wariancji Allana AV (Allan Variance). Analiza metodą wariancji Allana Metoda AV do badania parametrów szumowych sensorów inercjalnych została opisana w normach IEEE po raz pierwszy w 1997 r. Opublikowany dokument dotyczy procedur testowania i formatowania dokumentacji dla jednoosiowych interferometrycznych giroskopów optycznych [3]. W 2005 r. organizacja IEEE opublikowała normę dotyczącą praktyk testowania, zbierania oraz analizy danych pomiarowych sensorów inercjalnych [4]. W tym samym roku norma ta została zatwierdzona przez organizacje ANSI (American National Standards Insitute) i IEEE -SA Standards Board. Pierwotnie metoda AV wykorzystywana była do mierzenia stabilności oscylatorów [5]. Obecnie wykorzystuje się ją również do określania rodzaju i oceny źródeł zakłócających dane pomiarowe dowolnych przyrządów. Analiza danych przy pomocy metody AV realizowana jest w dziedzinie czasu, a charakteryzowane procesy są funkcją czasu uśredniania zbiorów pomiarowych &#964;. Metoda polega na obliczeniu i graficznym przedstawieniu odchylenia standardowego &#963; (&#964;) różnic wartości średnich y- wielkości mierzonej x w sąsiadujących ze sobą przedziałach czasowych o długości &#964;, przy założeniu stałego czasu próbkowania oraz nieskończenie... więcej»

Wykorzystanie sieci akustycznych w pasywnej lokacji obiektów (Stanisław GRZYWIŃSKI, Dariusz RODZIK, Jan PIETRASIEŃSKI)
Obecnie można wyróżnić dwa podejścia do organizacji systemów akustycznej lokalizacji: systemy scentralizowane i zdecentralizowane. Pierwsza grupa systemów posiada obniżoną zdolność detekcyjną szczególnie w terenie zurbanizowanym, w którym występuje zjawisko echa, wielodrogowości, a przede wszystkim braku bezpośredniej "widoczności źródła zaburzenia. Dla przykładu, jeśli z pewnych przyczyn kilka czujników zarejestruje sygnał odbity od przeszkody terenowej lub nie zarejestruje w ogóle zaburzenia, to dochodzi do sytuacji, gdzie system nie posiadając wystarczającej ilości danych w najlepszym przypadku wykryje zdarzenie lecz wskaże błędną pozycję źródła zaburzenia (rys. 1a). Oprócz ograniczenia zastosowań w zurbanizowanym terenie występuje również problem lokacji wielu źródeł. Powyższe problemy spowodowały zmianę dotychczasowego podejścia do zagadnienia akustycznej lokacji szczególnie przy zastosowaniu ich w terenach zurbanizowanych. Korzystnym rozwiązaniem zdaje się stosowanie dużej liczby czujników, rozmieszonych na pewnym obszarze. Systemy tego typu bazują na informacjach zgromadzonych na podstawie fuzji danych zarejestrowanych z sieci nodów. Zastosowanie takiej koncepcji systemu ma wiele zalet. Mianowicie wykorzystanie większej ilości sensorów skutkuje zwiększoną dokładnością całego systemu oraz większą niezawodnością detekcji zaburzeń w środowisku, gdzie występuje wysoki udział przeszkód terenowych. Oprócz tego poszczególne nody mogą być mniej dokładne, gdyż informacja o zaburzeniu ośrodka wywołanego np. strzałem z broni palnej, jest zbierana z większego obszaru oraz z większej ilości czujników niż ma to miejsce w przypadku układu scentralizowanego. Zwiększona baza pomiarowa może również zostać wykorzystana do zmniejszenia wymagań w przypadku przetworników analogowo-cyfrowych oraz procesora, przy zachowaniu dokładności wyznaczania pozycji. Powyższe przesłanki stały się podstawą przy projektowaniu systemów lokacji akustyczne... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Zastosowanie metody najmniejszych kwadratów do estymacji prędkości nosiciela radaru z syntetyczną aperturą (Piotr Serafin, Adam Kawalec, Czesław Leśnik, Marcin Szugajew)
Zobrazowania uzyskiwane dzięki technice syntezy apertury pozwalają na prowadzenie obserwacji terenu z rozróżnialnością zbliżoną do fotograficznej, jednak nie są one ograniczone warunkami oświetleniowymi czy atmosferycznymi panującymi w rejonie zainteresowania. W systemach z syntetyczną aperturą radar instalowany jest zwykle na ruchomej platformie, najczęściej na statku powietrznym. W celu wprowadzenia podstawowych pojęć rozważony zostanie system SAR w konfiguracji lotniczego systemu obserwacji bocznej [1]. Geometria takiego systemu przedstawiona została na rys. 1. Przyjęto założenie, że statek powietrzny będący nosicielem radaru, przemieszcza się ze stałą prędkością vR, na stałej wysokości hR po linii prostej. Listek główny charakterystyki kierunkowej anteny radaru skierowany jest prostopadle do trajektorii ruchu nosiciela i opromieniowuje wycinek terenu. Radar wysyła sygnały sondujące o częstotliwości nośnej f0 z częstotliwością powtarzania Fp i odbiera sygnały echa odbite od obiektów znajdujących się w opromieniowanej przestrzeni. Jeżeli postać analityczna sygnału nadawanego zostanie przedstawiona w postaci następującej: (1) gdzie A(t) jest zespoloną amplitudą sygnału, a f0 jest częstotliwością nośną sygnału sondującego, to odebrany sygnał echa od obiektu punktowego można zapisać następująco: (2) gdzie tT jest czasem opóźnienia sygnału echa w stosunku do momentu wysłania sygnału sondującego i wynosi: (3) natomiast RT jest odległością pomiędzy radarem i obserwowanym obiektem, a c jest prędkością propagacji fali elektromagnetycznej w przestrzeni. W odbiorniku radaru sygnały echa poddawane są konwersji do pasma podstawowego, zatem uwzględniając wyrażenie (3) postać sygnału echa można zapisać jako: (4) W radarze z syntetyczną aperturą odległość pomiędzy obserwowanym obiektem a radarem zmienia się ze względu na ich wzajemny ruch. Jeżeli przyjęty zostanie układ współrzędnych wykorzystany na rys. 1, to funkcję zmiany odle... więcej»

Rozporządzenie eIDAS - na pograniczu technologii i prawa (Daniel Wachnik )
W wyniku prac regulujących obszar podpisu elektronicznego została wydana Dyrektywa 1999/93/WE dotycząca wspólnotowych ram podpisu elektronicznego [1]. W trakcie 10-ciu lat obowiązywania Dyrektywy nie odnotowano oczekiwanego nasycenia rynku podpisów elektronicznych. W roku 2008 Komisja Europejska zaadoptowała plan działań w zakresie e-podpisu i e-identyfikacji, który zaowocował między innymi wytworzeniem raportów CRO - BIE S [2]. Raporty CRO BIE S stanowiły istotny wkład przy określeniu zakresu mandatu standaryzacyjnego M/460, wydanego w 2009 roku przez Komisję Europejską. Mandat ten miał na celu uporządkowanie standardów związanych z szeroko pojętymi usługami zaufania.Początkowo, rozważano zastosowano możliwość nowelizacji Dyrektywy 1999/93/EC , jednak w na podstawie analiz postanowiono, że najkorzystniejszym aktem prawnym, z punktu widzenia harmonizacji usług jest Rozporządzenie unijne. Draft rozporządzenia został opublikowany przez Komisję Europejską w dniu 04.06.2012 roku [3], a sam fakt publikacji został po raz pierwszy ogłoszony publicznie w Polsce, w trakcie konferencji EFPE . Warto nadmienić, że Rozporządzenie Unii Europejskiej jest aktem prawnym zasadniczo różniącym się od Dyrektywy. O ile Dyrektywa jest implementowana przez kraje członkowskie w prawie krajowym, o tyle Rozporządzenie nie pozostawia tego rodzaju swobody. Rozporządzenie jest stosowane bezpośrednio. Zastosowanie tego rodzaju aktu oznacza z jednej strony brak rozbieżności na poziomie krajów członkowskich, ale oznacza także, że państwa członkowskie nie mają możliwości korygowania tych przepisów, które z ich punk-tu widzenia są uciążliwe. Przykładowo, jeśli zapisy rozporządzenia będą wykluczać możliwość zastosowania w kontaktach z administracją publiczną określonego rodzaju mechanizmu, nie będzie można stosować tego mechanizmu, bez względu na fakt jakie koszty z tego powodu będzie musiało poni... więcej»

Warstwy TiN-Si3N4 nanoszone na tkaniny ochronne techniką magnetronową (Ryszard Mania, Konstanty Marszałek, Jerzy Morgiel, Robert Wolański&#8201;)
Pomimo znacznego rozwoju technologii zwalczania pożarów nadal wymagany jest bezpośredni udziału człowieka. Z reguły działania wykonywane przez ratowników (strażaków) nie należą do bezpiecznych. Skuteczność i względne bezpieczeństwo w tych działaniach jest w dużym stopniu uwarunkowane odpowiednim standardem ochron osobistych i wyposażenia technicznego. Aktualnie używane ubiory nie zabezpieczają w pełni przed zagrożeniem termicznym. Istotnym zagrożeniem jest oddziaływanie promieniowania cieplnego. Odzież ochronna izoluje ciało ratownika oraz odbija strumień energii cieplnej. Ubrania specjalne szyte są najczęściej z tkanin z włókien węglowych (aramidowych) takich jak NO MEX, PBI/KEVLAR, KER MEL. W pracy przedstawiono niektóre z wyników naszych badań nad nanoszeniem warstw ceramicznych TiN-Si3N4 na te tkaniny oraz na poliwęglan używany na wizjery hełmów, w celu polepszenia ich odporności na działanie strumienia energii cieplnej. Magnetronowe nanoszenie warstw Proces nanoszenia warstw prowadzono w przystosowanej do tego celu aparaturze próżniowej typu NP -501A produkcji TEPRO Koszalin z układem pompującym SP-2000. Kontrolę ciśnienia prowadzono przy użyciu próżniomierzy PW-21 firmy PO LVAC. Przepływ argonu i azotu ustalano i kontrolowano dzięki przepływomierzom masowym firmy MKS współpracującymi z zaworami iglicowymi. W cylindrycznej komorze próżniowej o pojemności 120dm3 zainstalowano magnetron planarny WMK-50 wraz z mechaniczną przesłoną Przesłona pozwalała rozpocząć proces nanoszenia po uzyskaniu stabilnych warunków pracy magnetronu. Korzystano z zasilacza [1] (MF) firmy DOR A PO WER SYSTE M generującego impulsy prądowe 8A/~160 kHz grupowane z częstotliwością 0,1~4 kHz. W obwodzie zasilania występuje oprócz generatora impulsów i obwodu rezonansowego LC układ stabilizacji dobroci Q. Układ ten ma za zadanie przesłanie części energii z powrotem do zasilacza głównego na kondensator, w wyniku czego, pojawia się tak zwana "moc cyrku... więcej»

Investigation of the reflective properties of layered antiferromagnetic-dielectric structures (Anton ARKHIPOV, Vladimir GNATUSHENKO)
The terahertz radiation is an interesting, important, and actively investigated frequency region. Development of this range is limited by a lot of reasons and one of them is a deficiency in a component base [1]. Non-reciprocity based on the non-Faraday effects is presented in this work. There are various ways to obtain nonreciprocal properties for anisotropic layered structures. One way is to use a well-known Faraday rotation effect, such as in optical isolators described in [2]. The handedness of this rotation depends on the propagation direction. In the terahertz region Faraday rotation in the ferrofluid at the room temperature was described in the work [3]. The electrically tunable Faraday effect in HgTe thin film is presented in [4]. Electrical control of the room-temperature Faraday effect was described there. High speed amplitude and phase modulators based on such structures were proposed in that paper. Near-infrared Faraday rotation in antiferromagnetic was described for example in paper [5] where laser pulse translation and signal transients in FeBO3 were observed as functions of sample temperature. Next way to obtain nonreciprocal properties is using nonlinear materials in heterostructures. For example in [6] the heterostructures based on the piezoelectric and semiconductor layers was proposed for radio-frequency application. Surface acoustic wave isolator based on two physical phenomena - strongly nonlinear interaction and drifting electron system was proposed here. Another examples of nonreciprocal properties of nonlinear devises in terahertz region was presented in paper [7] where a Faraday isolator operating on the coupled microwave resonators circuit. Another way is to use nature non-reciprocity of anisotropic materials. These properties are widely investigated and described later. For example non-reciprocity reflection in semi-infinitive layered magnetic-dielectric structures is described in [8]. Properties asso... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Per-unit-lenght parameters calculations for cable harnesses (Włodzimierz KALITA, Kazimierz KAMUDA, Dariusz KLEPACKI, Wiesław SABAT)
The mathematical analysis of electrical signal propagation communication interfaces requires a good knowledge about per-unitlength parameters of wires. It is especially important for analysis of circuits operated in high frequency range. The influence of p.u.l parameters on signal propagation in transmission lines describes the telegraph equation. For cable harnesses (with common coupled particular single wires) the p.u.l parameters have a form of R, L, C, G matrices [1-8]. P.U.L parameters calculations - theory The method of moments which belongs to the approximate methods allows the determination of distribution of electromagnetic fields (and their characteristic values) with much lower power consumption of calculations compared to the other methods. The analytical equations describing continuous electromagnetic field (in space and time domain) are transformed into a discrete system of algebraic equations. The quantities characterizing electromagnetic field in dielectric media can be determined from the Poisson equation described for the considered wire system: (1) The electric potential in any point P of homogenous dielectric media with permittivity &#949;m (without wire insulation) considered in 2D (Fig.1a) can be determined from general solution of equation (1) with given conditions: (2) where s&#956; is a lateral surface of wire. With good conductivity of wires it can be assumed that the potential &#956; on the perimeter of ( ) ... więcej»

Microfluidic valve made in LTCC (Low Temperature Co-fired Ceramic) technology - preliminary results (Mateusz Czok, Karol Malecha, Leszek Golonka)
The history of the LTCC (Low Temperature Co-Fired Ceramics) technology dates back to early 80s, when it was developed by Hughes and DuPont. Since then the LTCC technology has attracted extraordinary attention in fabrication of hybrid circuits, sensors, and microsystems [1]. The typical LTCC module is built of several ceramic layers with internal and external mechanical and electrical structures. All parts are connected together and create one, complex multilayer structure. The LTCC technology provides possibilities of using embedded and external (on both sides of the module) components in combination with excellent mechanical and thermal properties of ceramic material. Typical LTCC module is a multilayer structure constructed from dielectric tapes. Different patterns of conductors, resistors and dielectrics can be deposited on the LTCC tape layers using screen-printing or ink-jet printing techniques. Thick-film conductors and passives can be fabricated as a surface or embedded structures. Moreover, additional passive and active components can be easily assembled on the top or bottom surface of the LTCC module using various mounting techniques (e.g. surface mounting technique, flip-chip etc.). Originally, LTCC modules provided only electrical functions, but some features of the LTCC technology allowed expanding its applications. The main features of the technology are: possibility of 3D structure creation, chemical resistance, possibility of working at high temperature and harsh environment, ability of using typical thick... więcej»

Influence of the internal electrolyte composition on amperometric sulphur dioxide sensor properties (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski )
Amperometric sensors due to theirs high sensitivity and good dynamic properties are frequently used in toxic gases concentrations monitoring. Most of them are based on liquid electrolytes. Up to now usage of solid polymer electrolyte (SPE) membrane with layer of porous, metal electrode in construction of such sensors is the most successful approach. Main advantages of this type of sensors are a very high active area of the working electrode (WE) and a short response time. To obtain WE in the form of a porous layer on conductive polymer membrane several kinds of methods, such as chemical deposition, metal vapour deposition, electrochemical deposition or painting can be used [1]. Some work concerning detection of sulphur dioxide with usage SPE electrode have been published so far [2-6]. In these studies different internal electrolytes, such as 1M HClO4 [2], 0.1M HClO 4 [3], 1M H2SO4 [4], 1M NaOH [4], 5M H2SO4 in water [5, 6] and 5M H2SO4 in mixture of water and different organic solutions [5, 6] have been used. Jacquinot at al published studies in which influence of concentration of H2SO4 on SPE sensitivity for SO2, NO and NO2 has been presented [7]. It has been proved that sensitivity of the SPE for SO2 decreases with increase of the internal electrolyte solution concentration. In this work performance of SO2 sensor is investigated. The main goal of this research is to determine the influence of internal electrolyte composition on the sensor properties. Sensor filled with 1M and 5M sulphuric acid has been prepared. Responses of the sensor in the atmosphere containing different concentration of SO2 or different interfering gases have been measured. Experimental Sensor structure is similar to one the described elsewhere [8]. In [8] metal layer on Nafion membrane was deposited by vacuum sublimation. Otherwise then in ear... więcej»

Recycling of electronic waste - new approach (Marcin Szwech, Michał Kotarba, Małgorzata Jakubowska )
Currently the need for more efficient recycling of electronic waste becomes more apparent. One of the main factors for this is the rapid technology development in last few decades. New generation of electronic devices became more rapid than ever before thus shortening the life span of electronic parts from 4-6 years at the end of XX century to 2 years in first decade of XXI century. If this rate would continue to increase, within next few decades new generation of electronics will be release to market every few months. Economical and social aspects This current situation already significantly increased generation of electronic waste in turn raising new environmental issues. One of those issues is the placement of the waste. In the light of current EU legislation, directive 1999/31/EC, that states&#8220;to prevent or reduce as far as possible negative effects on the environment, in particular the pollution of surface water, groundwater, soil and air, and on the global environment, including the greenhouse effect, as well as any resulting risk to human health, from the landfilling of waste, during the whole life-cycle of the landfill"... więcej»

60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»