profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Oscylacyjny model sieci neuronowej jako system wbudowany (Wiesław Citko, Wiesław Sieńko )
Celem niniejszego artykułu jest prezentacja pewnego neuromorficznego modelu systemu inteligencji obliczeniowej. Model taki uzyskano przez wbudowanie filtru ortogonalnego, wykorzystującego strukturę hamiltonowskiej sieci neuronowej, w sieć sprzężonych pętli fazowych. Koncepcja wykorzystującą sieci sprzężonych oscylatorów fazowych do implementacji oscylujących modeli neuromorficznych nie jest nowa [1, 2, 3, 4]. Wydaje się jednak, że w/w koncepcja struktury wbudowanej nie jest opisana w literaturze przedmiotu. Hamiltonowskie sieci neuronowe i filtry ortogonalne Jak wiadomo, autonomiczny system hamiltonowski opisany jest równaniem stanu o postaci: (1) gdzie: x - wektor stanu, ... więcej»

Diody Schottky‘ego i tranzystory MESFET na bazie In-Ga-Zn-O z przezroczystą bramką Ru-Si-O (Jakub Kaczmarski, Jakub Grochowski, Eliana Kamińska, Andrzej Taube, Maciej Kozubal, Wojciech Jung, Anna Piotrowska, Elżbieta Dynowska)
Przezroczyste amorficzne półprzewodniki tlenkowe (ang. Transparent amorphous oxide semiconductors, TAOS), w tym tlenek indowo-galowo-cynkowych (a-IGZO), to materiały szerokoprzerwowe łączące cechy wysokiej transmisji optycznej z kontrolowanym przewodnictwem elektrycznym [1, 2]. Grupa przezroczystych amorficznych półprzewodników tlenkowych budzi uzasadnione zainteresowanie badawcze oferując szeroki wachlarz potencjalnych zastosowań - od przezroczystych przyrządów półprzewodnikowych i układów elektronicznych do całej gamy sensorów biomedycznych i optoelektronicznych, wytwarzanych zarówno na sztywnych jak i giętkich podłożach [3, 4]. Jednym z głównych wyzwań tej technologii jest wytworzenie niezawodnych kontaktów Schottky’ego, które umożliwiłyby rozwój przezroczystych cienkowarstwowych tranzystorów polowych ze złączem metal-półprzewodnik (ang. Metal-Semiconductor Field-Effect Transistor, MESFET). Niezawodne, przezroczyste kontakty Schottky’ego do przezroczystych półprzewodników tlenkowych powinny być wysokoprzewodzące, odporne na utlenianie oraz cechować się wysoką transmisją optyczną. Podczas osadzania metalizacji na powierzchnię TAOS, ze względu na powinowactwo chemiczne do tlenu, dochodzi do dyfuzji atomów O z półprzewodnika do obszaru przypowierzchniowego. Powoduje to powstanie zlokalizowanych stanów pułapkowych na interfejsie metal-półprzewodnik. W efekcie dochodzi do zwężenia obszaru zubożonego, zwiększając prawdopodobieństwo tunelowania nośników przez barierę potencjału [5, 6]. W celu przywrócenia stechiometrii obszaru przypowierzchniowego stosuje się dodatkowe procesy technologiczne, takie jak obróbka plazmą tlenową oraz wygrzewanie w atmosferze utleniającej przed osadzeniem metalizacji. Alternatywne podejście zakłada wykorzystanie, w roli bariery Schottky’ego, tlenków metali, których skład atomowy jest skuteczny w zapobieganiu dyfuzji tlenu w obszarze złącza [7-9]. W dotychczasowych pracach dotyczącyc... więcej»

Synteza nowych poliazometin dla zastosowań w fotowoltaice polimerowej (Kacper Parafiniuk, Agnieszka Iwan, Igor Tazbir, Lech Górecki)
Poprzez reakcję polikondensacji dialdehydów oraz diamin aromatycznych można w prosty sposób otrzymywać polimery o skoniugowanych wiązaniach TT - poliazometiny (poliiminy). Sprzężenie zapewniają powstające podwójne wiązania aldiminowe. Tego typu związki można uważać za półprzewodniki organiczne, podobnie jak szeroko badane politiofeny czy też polifenylowinyleny, interesujące z punktu widzenia elektroniki organicznej, także fotowoltaiki [1, 2]. Podstawową wadą poliazometin (PAZ) jest ich słaba rozpuszczalność [1, 2] w większości rozpuszczalników organicznych, co jest niezmiernie uciążliwe przy wytwarzaniu ogniw fotowoltaicznych. Dodatkowo otrzymywane PAZ wykazują stosunkowo niskie masy cząsteczkowe, w porównaniu do innych polimerów przewodzących, co ogranicza ich praktyczne zastosowania. W celu zwiększenia rozpuszczalności wprowadza się do struktury sprzężonego polimeru ugrupowania boczne - długie, często rozgałęzione łańcuchy alifatyczne lub grupy o charakterze objętościowym (np. cardo) [3, 4]. Niestety modyfikacja budowy chemicznej poliazometin nie zawsze przynosi tak zadowalający efekt jak w przypadku innych sprzężonych polimerów. Poliazometiny są wciąż niedostatecznie zbadaną grupą związków dla zastosowań w fotowoltaice, zatem istnieje potrzeba prowadzenia nad nimi dalszych badań zarówno podstawowych jak i zmierzających w kierunku zastosowań [1, 2]. W niniejszej pracy przedstawione zostały cztery nowe poliazometiny dla zastosowania w objętościowych polimerowych ogniwach fotowoltaicznych. Określone zostały podstawowe właściwości związków takie jak rozpuszczalność, termostabilność, absorpcja w zakresie widzialnym i bliskim nadfiolecie (zarówno w roztworze jak i cienkiej warstwie). Skonstruowano polimerowe objętościowe ogniwa fotowoltaiczne, w których komponent donorowy warstwy aktywnej stanowiła poliimina, akceptorowy z... więcej»

Badanie wpływu temperatury na charakterystyki fotoogniw (Krzysztof Górecki, Ewa Krac)
W ostatnich latach coraz większą uwagę przywiązuje się do odnawialnych źródeł energii. Do tej klasy źródeł należą m.in. systemy fotowoltaiczne (PV) [1-4]. Podstawowym składnikiem tych systemów są ogniwa fotowoltaiczne (fotoogniwa), w których zachodzi konwersja energii promieniowania optycznego, np. słonecznego, na energię elektryczną. Ogniwo fotowoltaiczne zawiera złącze pn, którego właściwości silnie zależą od temperatury [5, 6]. Przewiduje się, że do 2015 roku systemy fotowoltaiczne osiągną sumaryczną moc równą 200 GW, co stanowi podwojenie dzisiejszej mocy wytwarzane w krzemowych systemach PV [7], podczas gdy jeszcze pod koniec 2009 roku całkowita moc "elektrowni słonecznych" na świecie wynosiła tylko 23 GW [8]. Tak duży wzrost produkcji energii przy wykorzystaniu PV jest możliwy przede wszystkim dzięki znaczącemu podniesieniu sprawności poszczególnych ogniw oraz kompletnych systemów PV. Sprawność ogniw produkowanych w latach 40. ubiegłego wieku nie przekraczała 1%, podczas gdy już w 2009 wzrosła ona do 25% [9]. Zgodnie jednak z teorią Shockley-Queissera, maksymalna sprawność prostego krzemowego systemu PV może osiągnąć jedynie 31% [10]. Dodatkowo, na sprawność tę mają ogromny negatywny wpływ połączenia szeregowe poszczególnych ogniw, rozmiary paneli, temperatura otoczenia, zjawisko samonagrzewania [9, 11]. Dlatego wciąż trwają prace mające na celu podniesienie efektywności pracy systemów PV. Przy projektowaniu i analizie układów elektronicznych powszechnie są wykorzystywane programy komputerowe, wśród których jednym z najpopularniejszych jest obecnie program SPICE [12, 13]. Zagadnieniu modelowania systemów fotowoltaicznych za pomocą programu SPICE poświęcone są m.in. prace [11-15]. W pracy [14] przedstawiono sposób modelowania poszczególnych składników systemu fotowoltaicznego - od fotoogniwa, przez moduły fotowoltaiczne, falowniki do akumulatorów. Niestety modele przedstawiane w cytowanej pracy nie uwzględniają wielu i... więcej»

Powłoki optyczne do zastosowania na panele szklane (Jarosław Domaradzki, Damian Wojcieszak, Danuta Kaczmarek, Michał Mazur, Agata Poniedziałek)
Nanoszenie powłok optycznych na powierzchnię różnych przedmiotów ma na celu nadanie ich powierzchni określonych właściwości optycznych. Najczęściej oznacza to modyfikację wartości współczynnika odbicia światła (Rλ). Nałożenie powłoki optycznej może także mieć na celu wytworzenie takiego przyrządu optycznego jak np. lustro czy filtr. Najprostszą powłokę można otrzymać przez naniesienie na podłoże pojedynczej warstwy z innego materiału. Obecnie do wytwarzania różnych rodzajów powłok w szerokim zakresie spektralnym powszechnie stosowane są tlenki, np. TiO2, SiO2, Al2O3, Ta2O5, oraz fluorki (np. MgF2, CaF2) [1, 2]. Poza dobrą przezroczystością i odpowiednią wartością współczynnika załamania światła (tabela 1) istotnym kryterium, które może zadecydować o możliwości zastosowania tych materiałów na powłoki może być też kompatybilność metody ich nanoszenia z technologią wytwarzania gotowego produktu [1-3]. Teoretyczne podstawy projektowania powłok optycznych rozwijane były między innymi przez A. MacLeoda [4]. Podstawy te oparte są o rozwiązanie układu równań Maxwella dla fali TE (transverse electrical) i polegają na wyznaczeniu wartości współczynników odbicia (Rλ) i transmisji (Tλ) światła. W szczególności, projektowanie powłok polega przede wszystkim na opracowaniu modelu ich struktury. Należy w nim uwzględnić takie parametry jak np.: 1) rodzaj i parametry podłoża, 2) rodzaj i parametry materiałów zastosowanych na poszczególne warstwy, 3) liczba i sposób ułożenia warstw na podłożu, 4) grubości poszczególnych warstw [1, 2]. Wymienione elementy składowe dobierane są w taki sposób, aby uzyskać jak najlepszą zgodność teoret... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Właściwości wielofunkcyjnych cienkich warstw TiO2:Nd z przeznaczeniem na powierzchnię ogniw słonecznych (Michał Mazur, Danuta Kaczmarek, Damian Wojcieszak, Jerzy Morgiel, Małgorzata Kalisz, Magdalena Szymańska )
Zastosowanie tlenków metali o ściśle określonych właściwościach wzrasta w ostatnich latach, szczególnie w nowoczesnych technologiach, np. nanotechnologii [1-3]. Tlenki metali są używane w elektronice, optoelektronice, czy fotonice. Dla przykładu ze względu na bardzo dobre właściwości izolacyjne znajdują one zastosowanie w przemyśle półprzewodnikowym do wytwarzania układów scalonych wielkiej skali integracji. Domieszkowanie materiałów tlenkowych daje możliwość modyfikacji ich właściwości w bardzo szerokim zakresie [4-7]. Wśród materiałów stosowanych w nowoczesnych technologiach można wyróżnić materiały mikrokrystaliczne o krystalitach rzędu mikrometrów oraz materiały nanokrystaliczne o strukturze, którą tworzą krystality o wymiarach mniejszych niż 100 nm. Nanokrystaliczne tlenki metali o rozmiarach krystalitów rzędu od kilku do kilkunastu nanometrów mogą występować zarówno w postaci cienkich warstw, jak i proszków. W szczególności cienkie warstwy stosowane są w celu poprawienia właściwości materiałów, na które są nanoszone [1]. Cienkie warstwy mogą pełnić funkcje dekoracyjne, czy też stanowić materiał o zwiększonej odporności na korozję, odporności na ścieranie i twardości. Z tego względu nanokrystaliczne tlenki metali mogą być również stosowane jako warstwy ochronne. Inne przykłady zastosowania nanokrystalicznych warstw tlenkowych to powłoki antyrefleksyjne, nakładane np. na powierzchnię ogniw słonecznych, powłoki antybakteryjne, przezroczyste elektrody czy też warstwy czujnikowe. Jednym z materiałów, który w dziedzinie wytwarzania różnego typu powłok od lat cieszy się dużym zainteresowaniem jest dwutlenek tytanu (TiO2) [1, 7-10]. Zainteresowanie dwutlenkiem tytanu związane jest z unikatowymi właściwościami tego materiału, dzięki czemu może on zostać wykorzystany w różnych gałęziach przemysłu [1]. Do zalet TiO2należy między innymi neutralność dla środowiska, nietoksyczność, duża odporność chemiczna, termiczna, mechaniczna... więcej»

System przydziału celów powietrznych do środków ogniowych: maksymalizacja strat wroga (Przemysław M. Czyronis)
Problem przydziału celów powietrznych do środków ogniowych (ang. Weapon-Target Assignment Problem - WTA Problem) jest zasadniczym problemem wynikającym z zastosowań związanych z obronnością, które dotyczą znalezienia optymalnego przypisania środków ogniowych do kanałów celowania. Problem ten jest szczególnym przypadkiem bardziej ogólnego problemu jakim jest alokacja zasobów. Zadania związane z optymalną alokacją posiadanych zasobów posiadają swoje odzwierciedlenie w algorytmach systemów kierowania walką i ogniem Zestawów Rakietowych Obrony Powietrzenej. Użycie relatywnie dużej liczby pocisków rakietowych rozlokowanych na wielu wyrzutniach przy zmieniającej się sytuacji powietrznej wymaga wsparcia operatorów przez dedykowane systemy informatyczne. W przypadku kiedy mamy do czynienia z mniejszą celów powietrznych od liczby dostępnych kanałów celowania, problem się znacząco upraszcza. W sytuacji odwrotnej musimy zdecydować, które wybrane cele powietrzne zostaną przypisane do poszczególnych kanałów celowania. W tym przypadku na proces decyzyjny ma wpływ wiele czynników, takich jak: chwila czasowa wejścia celu powietrznego strefę rażenia, czas jego przebywania w strefie startu pocisków rakietowych, liczba przypisanych już celów powietrznych do danej wyrzutni czyli ilość wolnych kanałów celowania, liczba dostępnych pocisków rakietowych, priorytetowość (ważność) zwalczania danego celu, prawdopodobieństwo trafienia w cel, rodzaj przyjętej strategii. Rozważymy statyczny problem przydziału celów powietrznych do środków ogniowych pod względem optymalizacji różnych wskaźników jakości, określających pożądany efekt taki jak: zmaksymalizowanie strat w ugrupowaniu wroga (ang. total expected damaged value of the targets), zminimalizowanie liczby wrogich obiektów (ang. total expected value of the surviving targets). W każdym z przypadków zakładamy, że jest znana liczba celów powietrznych jak i predykcja ich trajektorii lotu (w ograniczonym ... więcej»

Analiza zasięgowa łączy optycznych (Magdalena Garlińska)
Schemat blokowy łącza FSO pracującego w otwartej przestrzeni przedstawiono na rys. 1. Promieniowanie optyczne o mocy PNAD jest wysyłane z nadajnika w postaci wąskiej wiązki o rozbieżności Θ. Wiązka ta wytwarza w płaszczyźnie odbiornika, znajdującego się w odległości R, obszar oświetlony o średnicy ΘR [1]. Moc promieniowania docierającego do odbiornika zależy od mocy nadajnika, współczynników transmisji układów optycznych nadajnika i odbiornika, rozbieżności wiązki, odległości między nadajnikiem i odbiornikiem oraz współczynnika ekstynkcji atmosfery. Niektóre z wymienionych parametrów mogą być odpowiednio dobierane i optymalizowane w trakcie projektowania łącza optycznego. Prace te muszą jednak uwzględniać niekorzystny wpływ zjawisk atmosferycznych. Podczas propagacji przez atmosferę zmniejsza się natężenie promieniowania docierającego do odbiornika. Jest to spowodowane przez: absorpcję i/lub rozpraszanie fotonów na różnego rodzaju aerozolach i cząsteczkach występujących w atmosferze [2], oraz zmianę lokalnego współczynnika załamania światła wynikającą z występowania turbulencji atmosferycznych. Źródłem turbulencji są przypadkowe fluktuacje mas powietrza wywołane wiatrem oraz konwekcją ciepła, które skutkują powstawaniem wirów powietrznych, a w konsekwencji wywołujące min. scyntylacje, poszerzanie wiązki laserowej, "beam wander" [3].Budżet mocy łączy FSO W celu przeprowadzenia analizy zasięgowej łączy F... więcej»

Badanie elastycznych paneli fotowoltaicznych w aspekcie zastosowań militarnych (Stanisław Maleczek, Wojciech Malicki, Kazimierz Drabczyk, Andrzej Cebrat)
Alternatywne źródła energii stają się obecnie coraz bardziej znaczącym elementem systemów zasilania, nabierającym szczególnego znaczenia w czasie obecnego kryzysu energetycznego. Coraz częściej do wytwarzania energii elektrycznej wykorzystywane jest promieniowanie słoneczne docierające do powierzchni Ziemi. Zajmuje się tym fotowoltaika będąca jedną z technologii nowoczesnego i sprzyjającego środowisku pozyskiwania energii elektrycznej, wykorzystującą zjawisko przetwarzania promieniowania słonecznego w prąd elektryczny zachodzące w ogniwie fotowoltaicznym. Metoda jest znana od wielu lat, a baterie fotowoltaiczne możemy spotkać w różnych zastosowaniach militarnych i cywilnych. Niestety metoda nie jest jeszcze w pełni wykorzystywana w Siłach Zbrojnych RP. Jedną z pierwszych prób zastosowania baterii fotowoltaicznych w polskiej armii podjął Wojskowy Instytut Techniki Inżynieryjnej w konsorcjum z Instytutem Metalurgii i Inżynierii Materiałowej PAN oraz Wojskowymi Zakładami Łączności Nr 2 SA W wyniku zrealizowanego projektu rozwojowego finansowanego przez NCBiR powstało szereg prototypów urządzeń, a wśród nich najważniejszy - polowa elektrownia słoneczna o mocy 1 kW [1, 6] zawierająca baterię dziesięciu paneli 100 W wykonanych z krzemowych ogniw monokrystalicznych. Współczesne ogniwa słoneczne wytwarzane są głównie na bazie krzemu krystalicznego (mono i polikrystalicznego). W ostatnich latach następował jednak intensywny rozwój nowych technologii fotowoltaicznych [2]. Wśród nich należy wyróżnić ogniwa cienkowarstwowe CIS, CIGS, CdTe, jak również DSSC i polimerowe, zaletą których jest elastyczność wykonanych z nich paneli, a także mniejsza masa [3]. Niestety sprawność takich ogniw jest wciąż niższa w stosunku do standardowych ogniw krzemowych. Głównym czynnikiem warunkującym możliwości zastos... więcej»

Analiza właściwości optycznych oraz projektowanie półprzezroczystych cienkich warstw Ag w zakresie VIS-NIR (Jarosław Domaradzki, Danuta Kaczmarek, Michał Mazur, Damian Wojcieszak, Tomasz Jędrzejak )
Cienkie warstwy srebra znajdują zastosowanie w konstrukcji różnych powłok optycznych. Do jednych z najczęściej wykorzystywanych należą powłoki odbijające promieniowanie optyczne w szerokim zakresie długości fali stosowane do wytwarzania luster. W wypadku warstw Ag o grubości od kilku do kilkunastu nanometrów, warstwy takie wykazują częściową przepuszczalność dla światła w widzialnym zakresie widma promieniowania optycznego oraz odbicie światła w zakresie bliskiej podczerwieni. Taka właściwość Ag znajduje z kolei zastosowanie w konstrukcji tzw. powłok niskoemisyjnych, stosowanych powszechnie w szkle architektonicznym. Projektowanie powłok optycznych, przeznaczonych do różnych zastosowań wymaga znajomości przebiegu charakterystyk dyspersji współczynników załamania i ekstynkcji światła materiału, z którego wytworzona będzie powłoka. W wypadku bardzo cienkich warstw, charakterystyki te mają jednak inny przebieg niż obserwowany dla materiałów litych. W niniejszej pracy przedstawiono wyniki badania oraz analizy właściwości optycznych powłok Ag o grubości 5, 10 i 15 nm wytworzonych metodą parowania wiązką elektronową oraz porównano wyniki projektowania powłok Ag z wykorzystaniem danych uzyskanych dla analizowanych warstw. Część eksperymentalna Cienkie warstwy testowe naniesione zostały na podłoża szklan... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Ocena jakości połączeń lutowanych w elektronicznym montażu powierzchniowym (Tomasz Serzysko, Janusz Borecki)
Proces technologiczny montażu elektronicznego jest końcowym etapem procesu produkcyjnego, w którym ostatecznie kształtuje się jakość wyrobu elektronicznego. Proces technologiczny elektronicznego montażu powierzchniowego (SMT) można podzielić na następujące etapy: - nakładanie przez szablon pasty lutowniczej (spoiwa lutowniczego) na pola lutownicze płytki obwodu drukowanego, - układanie elementów elektronicznych SMD (ang. Surface Mounted Device) na powierzchni płytki obwodu drukowanego, - przetapianie spoiwa lutowniczego. - kontrola końcowa wyrobu gotowego. Kontrola wyrobu gotowego jest czynnością wieloetapową. Wykonuje się ją bezpośrednio po procesie lutowania między innymi poprzez kontrolę wizualną pod mikroskopem optycznym oraz badanie elektryczne zmontowanego zespołu. Sprawdza się wtedy zgodność produktu z projektem i przeprowadza obserwację położenia elementów na polach lutowniczych oraz obserwację poszczególnych połączeń lutowanych. Podczas takiej kontroli można wykryć ewentualne wady połączeń takie jak przesunięcie wyprowadzeń elementu względem pól lutowniczych, efekt nagrobkowy, niezwilżenia czy odwilżenia pól lutowniczych. Dostarcza ona również informacji na temat istnienia lub braku połączenia elektrycznego. Formowane w procesie montażu elektronicznego połączenia lutowane mają do spełnienia dwa główne zadania, jakimi są: - przyłączenie elementów elektronicznych do sieci połączeń obwodu elektrycznego montowanego urządzenia, oraz - mechaniczne zamocowanie elementów na powierzchni płytki obwodu drukowanego. Jakość połączeń lutowanych zależy od wielu czynników, do których należy zaliczyć: parametry prowadzenia procesu montażu elektronicznego, rodzaj pasty lutowniczej, wielkość pól lutowniczych na płytce obwodu drukowanego oraz rodzaj lutownej powłoki ochronnej na powierzchni pól lutowniczych. Prezentowane w niniejszej pracy wyniki, przedstawiają ocenę jakości połączeń lutowanych z zastosowaniem bezołowiowych past lu... więcej»

Metoda skróconego badania niezawodności układów pamięci NAND FLA SH (Krzysztof Bąk)
Podstawą procesu produkcyjnego, na podstawie którego powstał poniższy artykuł, są układy pamięci NAND FLASH dostarczane w postaci rdzeni krzemowych. Rdzenie krzemowe stanowią półprodukt wymagający umieszczenia w obudowie i późniejszego przetestowania. Półprodukt charakteryzuje się nieznanym typem i liczebnością defektów. Defekty te mają nieznane modele i mogą ujawniać się w całym okresie użytkowania urządzenia. Następstwem defektu jest błąd, często bez możliwości wskazania typu i lokalizacji uszkodzenia. Brak dostępu do interfejsu diagnostycznego układów pamięci powoduje, że niemożliwe jest akcelerowanie napięciowe defektów oraz prowadzenie pomiarów wewnętrznych parametrów pracy. Skutkiem tego jest ograniczenie testu do sekwencji: kasowania, programowania, odczytu danych wzorcowych, zadanych przez tester oraz w docelowym środowisku pracy. W przytaczanym procesie produkcyjnym, pierwszym etapem procesu jest test układów pamięci w testerze. Procedura testowa omówiona w [10] składa się z sekwencji algorytmu MATS[6] testujących komórki pamięci znajdujące się w stronach. Pomiędzy cykl zapisu i weryfikacji danych wprowadzona jest kontrola upływności danych polegająca na wygrzewaniu układów pamięci w zadanej temperaturze i czasie. W wyniku przeprowadzonego testu odrzucane są układy pamięci charakteryzujące się nadmierną upływnością danych oraz te, w których liczba błędnych bitów w danych testowych przekracza ustalone progi. Testowanie w aplikacji - którą jest dysk SSD (ang. Solid State Drive), jest przeprowadzane w maksymalnej temperaturze pracy SSD i polega na zapisie/odczycie danych wzorcowych poprzez interfejs SATA [11]. Tak przeprowadzony test jest kontrolą w maksymalnych warunkach użytkowania układów pamięci w docelowym środowisku pracy. Konsekwencją ograniczenia sekwencji testowych do zapisu i odczytu danych jest brak możliwości pobudzania defektów mogących ujawnić się w okresie użytkowania (okres II), w którym głównie powin... więcej»

Czasopisma NT, Indeksy, Cytowania, Bazy danych, Wydawnictwa Cyfrowe, Bibliometria. Część 1 (Ryszard S. Romaniuk)
Indeksy, cytowania, bibliometria, ocena parametryczna jednostek naukowych, ocena osobista dorobku uczonych są przedmiotem zainteresowania środowiska naukowego, choćby ze względu na powiązanie tych funkcji i parametrów z procesami legislacyjnymi dotyczącymi nauki w naszym kraju. Jesteśmy świadkami, a niektórzy z nas uczestnikami i autorami, intensywnych przemian w sposobie wydawania czasopism naukowo-technicznych (NT). Czasopisma NT podlegają szybkim zmianom, wraz z "internetyzacją" tj. cyfryzacją, informatyzacją, badań naukowych i powiązanych z badaniami i innowacjami, zaawansowanych procesów przemysłowych. Czasopisma te już obecnie nie liczą się praktycznie prawie zupełnie jako zbiory biblioteczne wydań papierowych (jedynie jako zbiory historyczne) a tylko i wyłącznie jako bazy danych o bardzo dobrej, tylko dobrej, lub nieco słabszej proweniencji. Historyczne wydania są coraz częściej w pełni digitalizowane i archiwizowane. Większość czołowych wydawnictw zarchiwizowało kolekcje swoich czasopism NT. Jakość bazy danych (według instytucji finansujących badania i administracji nauki) jest współmierna z wysokością indeksów oceniających czasopismo, i dalej z wysokością finansów i obłożeniem przez najlepszych autorów z najlepszych ośrodków naukowych, generujących najlepsze wyniki naukowe i techniczne. Czasopismom o charakterze lokalnym bardzo trudno jest uzyskać wysokie wskaźniki bibliometryczne. W kraju zrodziła się koncepcja powołania Polskiego Indeksu Czasopism Naukowych. Do takiej roli aspiruje prawdopodobnie Index Copernicus (IC Journal Master List), ale nie tylko, także inne. Powstaje duży portal krajowy zarządzania nauką Pol-ON, w ramach którego mogą być zapewne tworzone mechanizmy tworzenia ocen i indeksów instytucji, wydawnictw, czasopism i osób. Prowadzona jest intensywna dyskusja nad przyszłością wielu czasopism i sposobem ich wydawania. Artykuł jest niezbyt uporządkowanym i skromnym przyczynkiem do tej dyskusji. Tematy... więcej»

Badania rentgenowskie zespołów elektronicznych (Krzysztof Lipiec, Grażyna Kozioł, Konrad Futera)
Coraz bardziej postępująca miniaturyzacja i zwiększenie gęstości upakowania układów elektronicznych, powoduje powstawanie większej ilości różnego rodzaju wad podczas wytwarzania zarówno samej płytki obwodu drukowanego, jak również w czasie procesu montażu elektronicznego. Dlatego konieczna jest odpowiednia kontrola wykonania gotowego wyrobu. Wykorzystywane są do tego celu urządzenia automatycznej inspekcji optycznej, pozwalające na szybkie i dokładne sprawdzenie jakości połączeń lutowanych po wykonaniu montażu elementów elektronicznych. Jednakże inspekcja optyczna nie dostarcza informacji o jakości powstałych połączeń lutowanych pod obudową podzespołu elektronicznego, tak jak to ma miejsce w przypadku wielowyprowadzeniowych struktur BGA, CSP lub nieobudowanych struktur półprzewodnikowych typu flip chip (rys. 1). Szczegółowych informacji na temat jakości połączeń tych podzespołów i struktur dostarcza automatyczna kontrola rentgenowska [1]. Badania rentgenowskie w Instytucie Tele- i Radiotechnicznym wykonywane są na urządzeniu do inspekcji rentgenowskiej Nanome/ X 180 NF, umożliwiającym obserwację badanego obiektu nie tylko w jednej płaszczyźnie, ale również pod kątem do 70°. Jest to niezwykle pomocne podczas kontroli połączeń lutowanych elementów w obudowach z wyprowadzeniami sferycznymi, gdyż tylko wtedy można prowadzić bardziej złożone analizy jakości połączeń po procesie lutowania [2]. Wykonując analizę rentgenowską należy pamiętać, że na jakość połączenia lutowanego ma wpływ wiele czynników. Wykryte wady w wyniku badania rentgenowskiego w połączeniach lutowanych można... więcej»

Układy pomiarowe w urządzeniach towarzyszących (Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)
Podstawowym wymaganiem stawianym urządzeniom pracującym w przestrzeniach zagrożonych wybuchem jest iskrobezpieczeństwo. Jest ono definiowane jako rodzaj zabezpieczenia przeciwwybuchowego polegającego na ograniczeniu energii elektrycznej w obwodach mających kontakt z atmosferą wybuchową do poziomu poniżej energii zapłonu - zarówno w wyniku iskrzenia jak i nagrzewania się. Urządzenia towarzyszące należą do grupy takich urządzeń, które zawierają zarówno obwody iskrobezpieczne jak i nieiskrobezpieczne. Musi być ono skonstruowane w taki sposób, aby obwody, w których energia nie jest ograniczona nie mogły oddziaływać niekorzystnie na obwody o ograniczonej energii. Urządzenia towarzyszące mogą być instalowane w obudowach ognioszczelnych, zaś okablowanie przyłączane do obwodów iskrobezpiecznych tych urządzeń przechodzić do stref zagrożonych wybuchem. Urządzenia towarzyszące zbudowane są z trzech stref obwodów przedstawionych na rysunku 1: obwodu nieiskrobezpiecznego, nieiskrobezpiecznej części obwodu iskrobezpiecznego i obwodu iskrobezpiecznego. Przy projektowaniu urządzenia, a w szczególności jego układów pomiarowych należy zadbać o to, aby pomiędzy strefą nieiskrobezpieczną a strefą nieiskrobezpiecznej części obwodu iskrobezpiecznego zachować separację galwaniczną. Elementy oddzielające galwanicznie powinny być zgodne z konstrukcjami dopuszczonymi w normach [1, 2] i zachować parametry pracy zgodnie z tymi normami. Specyficzną grupą urządzeń towarzyszących stanowią sterowniki zabezpieczające z ... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Przepływomierz kolanowy do pomiaru strumieni przepływu gazu (Michał Kamiński, Artur Andruszkiewicz)
Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Digital radio modem operating in a 433 MHz band with an innovative front-end circuit (Cezary Worek, Łukasz Krzak, Dominik Nowak)
Many of the modern RF communication circuits are based on single chip radio transceivers. Their application is usually relatively simple and straightforward and only requires up to a dozen external passive elements. The main advantages of such a design are the small PC B size required, low power consumption, hardware support for many communication-related functions, flexible software control, high reliability and low cost of electronic components. The last property is often the most important one in consumer electronics, and many integrated transceivers find application in this market segment. In industrial applications, however, such solutions often give an inadequate performance. The most significant problems commonly found in single chip transceivers are low dynamic range, low selectivity, low immunity to blocking and unsatisfactory intermodulation parameters, especially at high signal levels. Moreover such constructions often suffer from significant emissions of local oscillator signals that cause problems during certification and functionally may disrupt neighbouring RF receivers or RF sensitive devices. The reason for such behaviour is commonly the homodyne or low intermediate frequency (IF) architecture used in integrated radio transceivers. Many of the radio reception issues remain hidden until the density of the electronic circuitry increases, radio network nodes start to operate close to each other or other high-level signal sources are present, which is a common event in industrial applications. These problems are widely recognised, and can be traced to standard specifications. For example, the ET SI EN 300-220-1 standard that describes requirements for short-range devices working in the sub-GHz frequency range establishes three categories of receivers, based on the risk assessment of the radio receiver performance. The most reliable category of devices has additional requirements concerning adjacent channel selectiv... więcej»

Synteza 128-bitowych komparatorów hierarchicznych w strukturach CPLD/FPGA (MAREK GRUSZEWSKI)
Komparator binarny (nazywany dalej komparatorem) należy do układów kombinacyjnych i służy do porównywania wartości dwóch słów binarnych, np. A i B. Komparator tradycyjny (rys. 1) ma trzy wyjścia i realizuje następujące funkcje: G (A > B), E (A = B), L (A < B), gdzie A = at ... a1 oraz B = bt ... b1.Komparatory należą do podstawowych komponentów systemów cyfrowych. Są kluczowymi elementami w szerokim zakresie zastosowań, tj.: w procesach obliczeniowych (grafika oraz przetwarzanie obrazów/sygnałów [1]), w układach testujących (analizatory sygnatur, wbudowane układy samotestujące [2]), w procesach poszukiwania i sortowania danych [3], jako komponenty w procesorach ogólnego przeznaczenia: pamięci asocjacyjne (skojarzeniowe), bufory TLB (Translation Lookaside Buffer), bufory BTB (Branh Target Buffer) i wiele innych bloków porównywania argumentów w CP U [4]. Rozbudowany układ cyfrowy na ogół przedstawiany jest jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych. Do takich bloków funkcjonalnych należą m.in. komparatory. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CP LD) oraz bezpośrednio programowalne macierze bramek (FPGA) [5]. W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przetwarzania i przesyłania informacji. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy komparatorów w strukturach CP LD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach. Przy syntezie komparatorów wystarczy zrealizować tylko dwie funkcje G i E. Funkcja L zawsze może być określona na podstawie dwóch pierwszych na podstawie zależności: (1) Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy. W ostatnich latach zwraca się dużą uwagę na projektowanie komp... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS (Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)
Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Programowa implementacja kontrolera magistrali CAN w lokalnych sieciach sensorowych (Kazimierz KAMUDA, Mariusz SKOCZYLAS, Jerzy ŚWIĘCH, Włodzimierz KALITA)
Kontroler CAN wykonuje ściśle określone funkcje w układach elektronicznych współpracujących z magistralą CAN. Podstawową funkcją kontrolera jest sprzętowa realizacja protokołu magistrali CAN, która obejmuje generowanie pakietów danych według specyfikacji standardu CAN, odbiór danych oraz obsługę błędów. Dzięki kontrolerowi układ mikroprocesorowy współpracujący z magistralą jest odciążony od dodatkowych obliczeń. Mikrokontroler, który wcześniej został skonfigurowany do wysyłania i odbierania wiadomości na magistralę, musi jedynie dostarczyć kontrolerowi określone wartości identyfikatora i danych do kontrolera CAN, a cała reszta funkcji potrzebnych do działania w tym systemie jest realizowana w tym układzie scalonym. Najczęściej kontroler magistrali CAN realizowany jest w postaci sprzętowej w mikrokontrolerze, bądź w formie oddzielnego układu scalonego. Możliwa jest jednak programowa implementacja kontrolera, dzięki której typowy mikrokontroler 8 bitowy będzie mógł odbierać i wysyłać dane na magistrali. Wprowadzenie programowej implementacji wiąże się pewnymi ograniczeniami. Będą nimi mniejsza ilość wolnej pamięci flash oraz większe obciążenie procesora na czas odbierania i przetwarzania danych. Jednak w wielu przypadkach wady te nie dyskredytują tego rozwiązania. Programowa implementacja niesie ze sobą też wiele zalet, takich jak mniejsze koszty urządzenia, możliwość działania z wykorzystaniem tanich mikrokontrolerów oraz znaczne ograniczenie poboru mocy związanego z pracą dodatkowego układu kontrolera CAN. Koncepcja programu Program implementujący funkcje kontrolera magistrali CAN nie musi w pełni odzwierciedlać działania sprzętowego kontrolera CAN. Wynika to z faktu, że istnieje tylko kilka funkcji niezbędnych do wymiany danych na magistrali, więc szereg działań kontrolera może zostać pominięte lub zastąpione. Program, który został opracowany można podzielić na trzy części. W pierwszej części znajdują się funkcje, bez któ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Człowiek i organizacje w wirtualnym środowisku informacji (Zbigniew Kierzkowski)
Procesy przemian cywilizacyjnych w kształtującym się społeczeństwie informacyjnym zmierzają w kierunku tworzenia różnorodnych struktur wirtualnej organizacji działań (WOD). Problematykę WOD, jako nowy przedmiot badań naukowych i realizacji zadań badawczo-rozwojowych i edukacyjnych, podjęto w Polsce przed 20 laty. Od początku badania te są prowadzone przy współpracy wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych, konferencji krajowych i międzynarodowych. Problematyka WOD od początku wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP). Problematyka wirtualnej organizacji działań (WOD), nowy przedmiot badań naukowych i realizacji zadań badawczorozwojowych, podjęto w Polsce w latach 1994/1996. Są one przedmiotem współdziałania wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych. Od początku tematyka WOD wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP) i jest ściśle powiązana z pracami prowadzonymi na forum międzynarodowym przez Komitet Danych dla Nauki i Technologii [2] (CODATA - Committee on Data for Science and Technology of the International Council for Science). Dodatkowo od 2003 roku problematyka WOD prezentowana jest podczas krajowych Konferencji Okrągłego Stołu (KOS): Polska w drodze do społeczeństwa informacyjnego [3], które organizowane są corocznie, jako debata środowisk polityki, gospodarki i nauki przez Zarząd Główny SEP - Stowarzyszenie Elektryków Polskich, który jest głównym koordynatorem w Polsce obchodów ŚDSI - Światowego Dnia Społeczeństwa Informacyjnego (17 maja). Badania początkowe - do roku 2003/2004 - w obszarach tematycznych WOD poświęcone są analizie procesów przemian strukturalnych społeczeństwa informacyjnego oraz poszukiwaniu głównych czynników kształtowania społecz... więcej»

Światłowody i ich zastosowania 2014 (Jan Dorosz, Ryszard Romaniuk)
Technika światłowodowa rozwijana jest w kraju, także na poziomie technologicznym, od połowy lat siedemdziesiątych ubiegłego wieku. Wkrótce będziemy obchodzić jej krajowe czterdziestolecie. Pierwsze ośrodki technologiczne powstały na terenie Wydziału Chemii UMCS w Lublinie (prof. A. Waksmundzki, J.Wójcik, A.Gorgol) w 1975 roku, a następnie na terenie instytutu ITME w Warszawie (L. Kociszewski), Hucie Szkła Polam-Ożarów, oraz na Politechnice Białostockiej i w Hucie Szkła Białystok (J. Dorosz). Obecnie technologiczne prace badawcze nad światłowodami są kontynuowane z sukcesem w trzech ośrodkach: Lubelskim (UMCS i PL), Białostockim (PB) i Warszawskim (ITME). Produkowane zaawansowane światłowody są stosowane w badaniach materiałowych i technologicznych, rozwoju procesów, a także do wytwarzania funkcjonalnych elementów i urządzeń fotonicznych. Z produkcji światłowodów telekomunikacyjnych, fotonicznych i specjalizowanych nietelekomunikacyjnych, w wymienionych ośrodkach, korzysta wiele laboratoriów elektronicznych, metrologicznych, telekomunikacyjnych, optoelektronicznych i fotonicznych, głównie uczelnianych, w całym kraju i zagranicą. Z tych światłowodów produkcji krajowej zbudowano wiele innowacyjnych elementów, układów i systemów fotonicznych. Dzięki dostępności w kraju światłowodów włóknistych telekomunikacyjnych i specjalnych, na wielu uczelniach mogły rozwinąć się nowoczesne laboratoria fotoniki światłowodowej. Jest to znaczny, chyba niedoceniany, sukces krajowych ośrodków technologicznych, wśród których Laboratorium Technologii Światłowodów na UMCS w Lublinie, pod kierownictwem prof. Andrzeja Waksmundzkiego, było pierwsze. Tradycja krajowych konferencji światłowodowych Krajowe środowisko naukowo-techniczne fotoniki i optoelektroniki światłowodowej spotyka się co półtora roku, na ogół w dość licznym towarzystwie gości zagranicznych, na Krajowej Konferencji" Światłowody i ich Zastosowania". XV Konferencja OFTA2014 odbyła się... więcej»

Wielokrotny wybór czyli rozważania o pewnych pytaniach testowych (Wojciech Przyłuski )
Wśród pytań zamkniętych (czyli takich, w których testowany wybiera odpowiedzi spośród pewnej liczby konkretnie sformułowanych propozycji) najczęściej spotykanymi pytaniami - obok pytań polegających na wskazaniu jednej poprawnej odpowiedzi - są tzw. pytania wielokrotnego wyboru. Słowo "wielokrotnego" jest przy tym różnie interpretowane przez autorów publikacji związanych z tematyką testowania; może oznaczać zarówno liczbę proponowanych do wyboru opcji, jak i liczbę możliwych prawidłowych odpowiedzi. Każdy chyba odpowiadał kiedyś na pytania polegające na wyborze właściwej odpowiedzi. Polega to na tym, że dostaje się kilka, rzadziej kilkanaście możliwości do wyboru i należy zaznaczyć jedną lub kilka odpowiedzi uznanych za prawidłowe. Możliwość zaznaczenia więcej niż jednej odpowiedzi zależy od treści polecenia zawartej w pytaniu lub od formy graficznej pytania, która sugeruje bądź wręcz determinuje (testy komputerowe) zasady udzielania odpowiedzi. Spośród kilku polskich i angielskich nazw proponowanych w literaturze dla pytań wyboru najtrafniejsze wydają się określenia z pracy Marka Hyli [1]. Wymienia on dwa typy pytań wyboru: 1. pytania jednokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Single Answer, MCSA), 2. pytania wielokrotnego wyboru z wielu możliwych odpowiedzi (Multiple Choice Multiple Answer, MCMA). Dopiero te dwie polskie i odpowiadające im angielskie nazwy w pełni oddają sens jaki chcemy przypisywać tym typom pytań. W pierwszej chwili różnica pomiędzy tymi typami pytań wydaje się niewielka. Okazuje się jednak, że wielość możliwych do wskazania odpowiedzi stwarza w sferze weryfikacji wiedzy zupełnie nowe, nieporównywalne z pytaniami jednokrotnego wyboru, możliwości, rodząc jednocześnie wiele dodatkowych problemów. Tymi właśnie problemami chcemy się zająć, przy czym używać będziemy sformułowań: "pytanie wielokrotnego wyboru" i "wielokrotny wybór" w sensie drugiej z podanych wyżej definicji. Test t... więcej»

Zrekonstruowana cyfrowo "Wojna światów"
KinoRP jest przedsięwzięciem zainicjowanym w roku 2008 i koordynowaną przez Cyfrowe Repozytorium Filmowe. Honorowym patronatem KinaRP jest Minister Kultury i Dziedzictwa Narodowego Bogdan Zdrojewski, a patronami medialnymi: KINO, Telewizja Kino Polska, Radio TOK FM, FilmPRO, oraz serwisy internetowe: KronikaRP.pl, Serwis sfp.org.pl i Audiowizualni. pl. Digitalizacja umożliwia, jak nigdy dotąd, szerokie otwarcie magazynów filmowych i wydobycie najstarszych i najcenniejszych dzieł sztuki filmowej. Cyfrowy zapis to rewolucja w udostępnianiu filmów publiczności w formie kina cyfrowego, dysków optycznych lub na użytek telewizji, bądź inte... więcej»

Projekt wbudowanej dwupasmowej anteny GSM
Artykuł prezentuje łączne zastosowanie oprogramowania CST MICROWAVE STUDIO &#174; (CST MWS), Antenna Magus i Optenni Lab w celu poprawienia konstrukcji urządzenia monitorującego pracującego w standardzie GSM. Zadanie polegało na zastąpieniu typowej obudowanej anteny katalogowej zintegrowaną anteną drukowaną w celu zmniejszenia kosztów produkcji i kosztów materiałowych. Nowa antena musiała pracować w standardowych pasmach GSM 900 MHz i 1800 MHz oraz musiała korzystać z istniejącego podłoża i warstw metalizacji, bez zmiany wielkości płytki i układu ścieżek poza obszarem samej anteny. Nowa, zintegrowana antena została zaprojektowana z wykorzystaniem aplikacji Antenna Magus w połączeniu z oprogramowaniem CST MWS co pozwoliło uniknąć niepożądanych sprzężeń i zapewnić pracę anteny w żądanych pasmach częstotliwości. Program Optenni Lab został wykorzystany do zaprojektowania układu dopasowującego. Do czego owcy potrzebna antena? Firma "ETSE electronics" z miasta Stellenbosch w RPA to ekspert w zakresie urządzeń i systemów do łączności w pasmach mikrofalowych i RF. Konstruktorzy z ETSE opracowali produkt nazwany "Celmax collar". Jest to urządzenie śledzące systemu GPS noszone przez wybrane owce wchodzące w skład większego stada. W przypadku próby kradzieży lub innego niebezpieczeństwa spłoszone owce zaczynają biec. Urządzenie wykrywa przyspieszenie i powiadamia hodowcę przez wiadomość SMS wysyłaną przez lokalną sieć komórkową GSM. Na rysunku 2 pokazano pierwotną konstrukcję urządzenia z typową anteną GSM zamontowaną na płytce PCB i połączoną przez przepust z układem scalonym RF zamontowanym na drugiej stronie płytki. Częstotliwości pracy urządzenia to standardowe pasma GSM 900 (890 MHz - 960 MHz) i GSM 1800 (1710 MHz - 1879.8 MHz). Antenna Magus i CST MWS zostały użyte do zastąpienia pierwotnej anteny drukowaną anteną dwupasmową, bez zmiany układu ścieżek i wymiarów PCB. Podłoże wykonane jest z 4 warstw laminatu FR4 o przenikalno... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Realization of Digital Audio Signal Interpolator Using Linear-Phase IIR Filter (Krzysztof Piotr Sozański)
In a digital class D power amplifier, depicted in Fig. 1, the output pulse power amplifier works as a one-bit D/A converter. We assume that the amplifier input signal is in the CD player standard, i.e., is sampled with rate fs = 44.1 ksamples/s. Thus, its approximate frequency band covers 0...fb = 0...20 kHz. In order to increase the resolution of the amplifier, noise shaping and oversampling techniques are used [9]. The chosen signal oversampling ratio R = 8 is a compromise between the power MOSFET switching losses (for the minimization of which R should be also minimized) and the selectivity of the output passive low-pass smoothing filter. The chosen switching frequency is R &#8901; fs=352.8 kHz. During the signal interpolation process, the signal dynamic ratio can be decreased by adding mirror signals to the input signal. For high quality audio signals the required dynamic range is near 90 dB. The aim of this paper is to present a new audio signal interpolator using LF IIR filter. The interpolator is designed for Class-D audio power amplifier. Signal Interpolator A signal interpolator made up of an upsampler and an anti-imaging low-pass filter for integer valued conversion factor R is depicted in Fig. 2. The low-pass filter H(e j&#969;Ts/R), also called the interpolation filter, removes the R-1 unwanted images in the spectra of upsampled signal w(kTs/R). Fig. 1. Block diagram of class D digital audio power amplifier Rys. 1. Schemat blokowy wzmacniacza mocy klasy D Fig. 2. Signal interpolator Rys. 2. Interpolator sygnałów DPWM Noise Shaping Circuit Signal Interpolator x(nTs) fs=44.1 kHz +UZ L1 L2 C1 C2 C3 ZL Gate Drivers 8fs=352.8 kHz fc=352.8 kHz H(ejTs/R) x(nTs) x R y(kTs/R) fs Rfs R w(kTs/R) h(kTs/R) El ektronika 4/2014 47 An illustration of interpolating process for R = 3 is depicted in Fig. 3. After the upsampling process, the out-of-band signal (unwanted images) is a source of interference ... więcej»

Optymalizacja parametrów technicznych radiostacji osobistej poprzez zastosowanie modulacji OFDM oraz pasma UHF (Janusz DUDCZYK, Adam KAWALEC)
Radiostacja osobista technologią krytyczną Nowoczesna, szerokopasmowa radiostacja żołnierza na polu walki to jednocześnie nowoczesny system łączności, będącym fundamentalnym elementem Indywidualnego Systemu Walki (ISW) [1-3], w którym: - efektywnie zostało wykorzystane pasmo; - uodporniono transmisję radiową na zakłócenia; - zapewniono prace w terenie zurbanizowanym NLOS (ang. Non-Line-Of-Sight); - zapewniono łatwość obsługi oraz umożliwiono przesyłanie danych cyfrowych innych niż sygnał audio. Efektem użycia takiej radiostacji jest zwiększenie skuteczności działania żołnierza na polu walki poprzez zwiększenie jego świadomości sytuacyjnej i bezpieczeństwa dzięki utrzymaniu niezawodnej łączności radiowej i wymiany danych. Analiza kanału transmisyjnego Z uwagi na podstawowy wymóg, jakim jest konieczność utworzenia łącza cyfrowego o przepustowości ok. 1 Mb/s w celu transmisji w kanale radiowym strumienia danych wideo z sensorów optoelektronicznych systemu C4I, należy przyjąć, że najbardziej niesprzyjającym scenariuszem pracy urządzeń radiowych jest działanie w strefach silnie zurbanizowanych. Model równoważnego kanału transmisyjnego dla ww. stref przyjmuje postać przedstawioną na rys. 1 [4]. Kanał transmisyjny jest estymowany poprzez linię opóźniającą z odczepami symbolizującymi opóźnienia będące efektem wielodrogowości odbioru, współczynniki T1, T2, T3,. TM są odzwierciedleniem opóźnień głównych ścieżek propagacji sygnałów. Współczynniki ck(t) symulują zachowanie się w czasie poszczególnych ścieżek propagacji. Można założyć, że kanał jest zakłócony addytywnym szumem gaussowskim zamodelowanym przez źródło &#957;(t). Z analizy modelu kanału transmisyjnego wynikają zasadnicze konkluzje: - kanał charakteryzuje się selektywnymi zanikami sygnału będącymi wynikiem interferencji sygnałów propagujących się poszczególnymi ścieżkami; - w kanale występuje wielodrogowość, powodująca dyspersję w czas... więcej»

Układy do kontroli połączeń elektrod z pacjentem w badaniach elektrodiagnostycznych (PIOTR KARDYŚ, MAREK PORTALSKI)
W jednym z artykułów prezentowanych na łamach "Elektroniki" [7] w cyklu poświęconym bezprzewodowym systemom telemetrycznym, przedstawiliśmy moduł pomiarowy EE G/EKG przeznaczony do badań zdalnych. Moduł ten, podobnie jak inne urządzenia diagnostyczne korzystające z elektrod pomiarowych przylepianych bądź przykładanych do ciała osoby badanej, wymaga utrzymania rezystancji przejściowych, a ściślej impedancji na styku elektroda/ elektrody-tkanka w pewnych z góry ustalonych granicach, celem zapewnienia prawidłowej pracy urządzenia i uzyskania niezafałszowanych wyników pomiaru. W przypadku badań elektroencefalograficznych (EE G), rezystancje przejściowe elektrod przykładanych do głowy pacjenta nie powinny przekraczać 5 k&#937; [10], w przeciwnym razie do obwodów wejściowych wzmacniacza dotarłyby zakłócenia indukowane w otoczeniu pacjenta (przede wszystkim z sieci energetycznej), jak również drastycznie wzrósłby poziom szumów. Stosuje się zatem specjalne pasty przewodzące, poprawiające kontakt elektrod ze skórą. W badaniach elektrokardiograficznych (EKG) dopuszcza się nieco większe wartości rezystancji - do 10 k&#937; w pomiarach metodą Holtera [1]. Istnieją jednak badania, w których rezystancje przejściowe elektrod przyjmują znacznie większe wartości. Ciekawym przykładem może być badanie za pomocą wariografu, powszechnie, choć niezupełnie słusznie nazywanego "wykrywaczem kłamstw" [6], w którym na palce jednej ręki (zwykle wskazujący i środkowy) zakłada się elektrody suche, pozbawione pasty przewodzącej czy żelu, gdyż w tym wypadku potliwość ciała ma kluczowe dla wyników znaczenie. Wprowadzenie substancji przewodzącej między powierzchnię czynną elektrody a skórę uniemożliwiłoby monitorowanie tego parametru. W takich badaniach rezystancje przejściowe elektrod sięgają dziesiątek, a nawet setek kiloomów, w zależności od wilgotności naskórka i pośrednio od stanu emocjonalnego osoby badanej oraz jej reakcji (ang. GSR, galvanic skin res... więcej»

Analiza technik biometrycznych do uwierzytelniania osób (Mirosława Plucińska, Jarosław Wójtowicz)
Elektronizacja administracji (e-administracja), upowszechnienie transakcji i usług internetowych (e-usługi) wymagają jednoznacznej weryfikacji osoby korzystającej z tych udogodnień. Wydaje się, że takie jednoznaczne potwierdzenie tożsamości osoby może zapewnić biometria. W związku z tym należy rozpatrzyć dostępne techniki biometryczne, przyjrzeć się im i wybrać te, które będą najbardziej przydatne do uwierzytelniania. Ogólny przegląd technik biometrycznych istniejących i rozwijanych obecnie na rynku z krótkim opisem metody działania i najważniejszymi wadami i zaletami został umieszczony w artykule pt.: "Krótki przegląd technik biometrycznych do rozpoznawania osób" autorstwa M. Plucińskiej i w związku z tym w obecnym artykule nie będzie przypomnienia technik jakie są obecnie na rynku, a jedynie ich porównanie. Najważniejsze cechy technik biometrycznych Analizę i porównywanie technik biometrycznych można przeprowadzić w różnych aspektach. Do najważniejszych cech charakteryzujących poszczególne techniki biometryczne opisanych parametrami urządzeń biometrycznych należą - wiarygodność techniki, akceptowalność społeczna i łatwość użycia, przepustowość określona czasem weryfikacji, wielkość wzorca, wielkość urządzenia, cena i inne. Akceptowalność społeczna Jedną z ważnych cech dotyczących technik biometrycznych jest akceptowalność społeczna biometrii. Strach przed przyłożeniem palca czy oka do urządzenia skanującego oraz obawa przed zostawianiem swoich danych biometrycznych są ciągle duże, ale ogólne podejście społeczeństwa do biometrii zmienia się. Z danych przytoczonych na Konferencji Naukowej Biometria 2010 (organizator Instytut Maszyn Matematycznych, Warszawa) w prezentacji prof. A. Koziczak z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy, aż 77% ankietowanych studentów Wydziału Prawa i Administracji w wieku od 22 do 30 lat było za stosowaniem cech biometrycznych do szybkiego sprawdzenia tożsamości. Ankietowani godzili się na ... więcej»

Zagadnienia związane z przekładem zaimków osobowych w systemie tłumaczenia komputerowego typu Human-Aided Machine Translation (Zbigniew Handzel, Mirosław Gajer, Joanna Dybiec-Gajer )
Przekład komputerowy już od dobrych kilkudziesięciu lat pozostaje w kręgu zainteresowań interdyscyplinarnych zespołów badawczych złożonych z naukowców reprezentujących różne dziedziny wiedzy, poczynając od teoretyków informacji, poprzez specjalistów od algorytmów, programistów, a kończąc na językoznawcach, przekładoznawcach i filologach. Niestety, budowa systemu komputerowego przekładu, który byłby w stanie wyeliminować całkowicie człowieka i tym samym sprawić, że zawód tłumacza stanie się w przyszłości zbędny, wciąż pozostaje swego rodzaju niedoścignionym ideałem [1]. Obecnie systemy komputerowego przekładu są realizowane przede wszystkim jako systemy całkowicie automatyczne, tzn. takie, na wejście których użytkownik zadaje gotowy tekst zapisany w języku wyjściowym, a na ich wyjściu oczekuje pojawienia się przekładu tego tekstu na wybrany język docelowy. Tego rodzaju w pełni automatyczny przekład jest wykonywany przez komputer najczęściej z wykorzystaniem metod regułowych bądź statystycznych, przy czym znane są także rozwiązania hybrydowe, stanowiące różnego rodzaju połączenia wybranych metod [2]. Innym, w opinii autorów, niezwykle obiecującym kierunkiem badań w dziedzinie komputerowego przekładu jest rozwijanie systemów komputerowego przekładu wspomaganych przez człowieka, które w angielskojęzycznej literaturze przedmiotu określane są terminem Human-Aided Machine Translation. W przypadku tego rodzaju rozwiązań użytkownik systemu przez cały czas jego działania w sposób aktywny uczestniczy w procesie przekładu, rozwikłując wszelkiego typu wieloznaczności języka naturalnego (leksykalne i składniowe), które stanowią podstawową przeszkodę stojącą na drodze do budowy w pełni użytecznych systemów komputerowego przekładu [3]. Przedmiotem niniejszego artykułu jest rozwijany obecnie przez autorów system komputerowego przekładu typu Human-Aided Machine Translation. System ten pomyślany jest jako system wielojęzyczny, który jest otw... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Demonstrator lekkiego monoimpulsowego radaru trójwspółrzędnego bliskiego zasięgu pasma L (Adam Konrad Rutkowski, Adam Kawalec)
Systemy radarowe bliskiego i bardzo bliskiego zasięgu mają bardzo duże znaczenie w zastosowaniach powszechnych jak i w zastosowaniach specjalnych. Należą do nich między innymi systemy tak zwanej obrony aktywnej obiektów przed pociskami przeciwpancernymi. Celem obrony aktywnej jest uzyskanie co najmniej jednego z następujących efektów: - pocisk przeciwpancerny atakujący broniony obiekt zostanie zniszczony zanim dotrze do celu, - tor lotu pocisku przeciwpancernego zostanie zmieniony tak, że minie atakowany obiekt, - pocisk przeciwpancerny dotrze do atakowanego obiektu, ale zostanie uszkodzony w takim stopniu, że jego głowica bojowa nie przebije pancerza osłaniającego broniony obiekt. Osiągnięcie tych efektów wymaga jak najwcześniejszego uzyskania wiarygodnej informacji o tym, że chroniona strefa została naruszona, a obiekt jest atakowany. Na informację tę składają się: liczba atakujących pocisków, chwilowy kierunek i zwrot lotu pocisków, chwilowa odległość do każdego z tych pocisków. Do detekcji faktów ostrzelania pojazdu pociskami przeciwpancernymi mogą być stosowane sensory optoelektroniczne oraz elektromagnetyczne, a wśród nich lekkie urządzenia radiolokacyjne [1-3]. Systemy obrony, a w tym obrony aktywnej funkcjonują w warunkach nieprzewidywalnego zagrożenia oraz głębokiego deficytu czasu. W wielu przypadkach czas od chwili wystrzelenia pocisku przeciwpancernego do momentu dotarcia jego do celu nie przekracza 1,5 sekundy. W tym czasie system ochrony powinien wykryć fakt ostrzelania, ocenić stopień niebezpieczeństwa, wybrać najlepszy sposób przeciwdziałania oraz w odpowiednim momencie uruchomić środki obrony aktywnej, tak zwane destruktory, zwalczające atakujący pocisk przeciwpancerny. W przypadku systemów monitorowania obszaru pracujących w warunkach znacznego niedostatku czasu, duże znaczenie mogą mieć systemy radarowe w wersjach monoimpulsowych, zbudowane przy użyciu układów natychmiastowego pomiaru fazy NPF, układów n... więcej»

Bezprzewodowy detektor upadków (Bartłomiej Wójtowicz, Andrzej Dobrowolski)
Powszechnym, a zarazem poważnym problemem współczesnego świata, jest proces starzenia się społeczeństw, który wywołuje konsekwencje, m.in. w obszarze społecznym, psychologicznym, ekonomicznym, a także politycznym [12]. Nie bez znaczenia staje się więc zapewnienie właściwej opieki zdrowotnej najbardziej narażonej na problemy grupie, tj. ludziom w wieku powyżej 65 lat [2, 16]. Na przykładzie Polski, w roku 2000 grupa ta stanowiła 12,3% ogółu społeczeństwa, zaś prognozy Głównego Urzędu Statystycznego wskazują, że w roku 2020 grupa ta powiększy swoją liczebność niemal dwukrotnie [12, 13]. Wraz ze starzeniem się człowieka postępują procesy fizjologiczne charakteryzujące się zmianami w układzie nerwowym, które skutkują spowolnieniem procesów myślowych, spadkiem napięcia mięśniowego, zaburzeniem równowagi, a także osłabieniem odruchów [12]. W rezultacie tych zmian zwiększa się ryzyko upadków oraz spowodowanych nimi urazów. Stanowi to nie tylko problem zdrowotny ludzi w wieku geriatrycznym, ale jest to także poważny problem w skali społeczno-ekonomicznej kraju. Na upadek narażone jest aż 33% społeczeństwa w wieku powyżej 65. roku życia i odsetek ten wzrasta wraz z wiekiem [1, 2, 16]. Według [2] w roku 2002 upadki doprowadziły do zgonu aż 391 tysięcy ludzi, a 25% tych zdarzeń dotyczyła krajów o wysokich dochodach. Badania wskazują, że ponad połowa tych zdarzeń prowadzi do hospitalizacji i kończy się ograniczeniem sprawności ruchowej, a w najgorszych przypadkach skutkuje śmiercią człowieka [2, 9, 10, 14]. Doraźna pomoc medyczna niezbędna jest w 10&#8209;15% upadków, z czego aż 50% dotyczy ludzi powyżej 65-tego roku życia. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych (stany lękowe, depresje, ograniczenie aktywności ruchowej [12]), definiowanych w [4] jako syndrom poupadkowy. W celu zapobiegania negatywnym skutkom upadku istotne staje się opracowanie mechanizmów oraz rozwiązań pozwalających na skrócenie czasu pomiędzy ... więcej»

Przestrzenne charakterystyki wiązek promieniowania emitowanego przez lasery półprzewodnikowe (BOHDAN MROZIEWICZ, EMILIA PRUSZYŃSKA-KARBOWNIK, KAZIMIERZ REGIŃSKI)
Przestrzenny rozkład natężenia pola w wiązce emitowanej przez laser jest z punktu widzenia jego użytkownika jedną z najważniejszych, obok mocy wyjściowej i długości fali, charakterystyką tego urządzenia. Kształt i wewnętrzna struktura polowa emitowanej wiązki decyduje bowiem o możliwości jej dalszej obróbki optycznej i przystosowania jej do wymaganych celów, np. do uzyskania możliwie wysokiego natężenia napromienienia (W/cm2), lub zogniskowania wiązki na możliwie małym obszarze. Wymagania takie stawiane są w odniesieniu do układów optycznych stosowanych w telekomunikacji światłowodowej czy też w otwartej przestrzeni, a także np. w urządzeniach do spektroskopii. Szczególnie istotne okazały się one w przypadku budowanych ostatnio urządzeń laserowych do cięcia metali lub innych materiałów z wykorzystaniem zjawiska ablacji przy jednoczesnym uniknięciu odparowywania naświetlanego materiału w wyniku jego nagrzewania. Te ostatnie zastosowania nie dotyczą wprawdzie jak dotąd kwantowych laserów kaskadowych, ale okazały się już szczególnie ważne w odniesieniu do laserów diodowych. Mierniki rozkładu natężenia pola w wiązce laserowej zwane potocznie profilometrami (ang. profilers), dedykowane do pomiarów wiązek generowanych przez lasery różnych rodzajów, są obecnie produkowane przez wiele firm i w zasadzie jako takie przestały być przedmiotem specjalnych badań. Stosowane w tych miernikach metody pomiaru rozkładu natężenia pola można ogólnie podzielić na dwie grupy: - metody oparte na wykorzystaniu matryc detektorowych, - metody oparte na mechanicznym skanowaniu i pomiarze pola w przekroju poprzecznym wiązki za pomocą pojedynczego detektora. Te ostatnie dzielą się na 3 podgrupy a mianowicie: skanowanie szczelinowe, skanowanie krawędziowe (tzw. knife-edge) oraz skanowanie dwuwymiarowe detektorem o małej aperturze. Każda z tych technik ma swoje zalety i wady zależnie od parametrów mierzonej wiązki laserowej (patrz ref. [1-3]). W szczególno... więcej»

Analiza układu integratora kluczowanego z nieidealnym kluczem (Grzegorz Domański, Bogumił Konarzewski, Robert Kurjata, Janusz Marzec, Krzysztof Zaremba , Michał Dziewiecki, Marcin Ziembicki, Andrzej Rychter)
Jednym z powszechnie stosowanych układów odbioru sygnału z fotodiod w systemach dyfuzyjnej tomografii optycznej [1] jest układ integratora kluczowanego [2]. Szum w takim układzie ma kilka przyczyn, a jedną z nich jest nieidealny charakter klucza. Rzeczywisty, nieidealny klucz, wstrzykuje ładunek podczas swojego przełączania oraz wykazuje skończoną rezystancję w stanie otwarcia. Ten drugi czynnik, czyli rezystancja klucza, może mieć znaczenie wszędzie tam, gdzie ze względu na niski poziom sygnału, stosowane są długie czasy integracji prądu z fotodiody, a więc na przykład w systemach tomografii optycznej. Analiza szumowa integratora kluczowanego sprzężonego z fotodiodą Ogólny schemat układu fotodiody dołączonej do integratora kluczowanego przedstawiono na rys. 1.Zawiera on fotodiodę podłączoną do wejścia odwracającego wzmacniacza operacyjnego. W pętli sprzężenia zwrotnego umieszczony jest klucz K o rezystancji Rf w stanie rozwarcia oraz dołączona równolegle pojemność Cf . Załóżmy, że na fotodiodę padają w losowych chwilach fotony, które generują impulsy prądowe ze średnią częstością re. Zgodnie z pierwszym twierdzeniem Campbella [4] średnia wartość sygnału wyjściowego uwy jest równa (1) gdzie he(t) - odpowiedź układu na pobudzenie jednoelektronowe. Wariancja sygnału wyjściowego &#963; 2uwy jest, zgodnie z drugim twierdzeniem Campbella [4], równa: (2) Analiza odpowiedzi układu w dziedzinie częstotliwości i czasu Dla dowolnej częstotliwości, przy pominięciu wpływu charakterystyki częstotliwościowej... więcej»

Uproszczona metoda obliczania warunków pracy tranzystorów w rezonansowych wzmacniaczach mocy klasy DE (Juliusz Modzelewski)
Kluczowane rezonansowe wzmacniacze mocy w radiotechnice mogą pełnić rolę stopni mocy nadajników systemów radiowych z modulacją częstotliwości (FM) i fazy (PM) oraz modulatorów mocy w nadajnikach z modulacją amplitudy (AM). Obecnie modulatory amplitudy o dużej mocy są także stosowane w wysokosprawnych liniowych wzmacniaczach mocy pracujących w układzie EE R (Envelope Elimination and Restoration) wykorzystywanych w nadajnikach systemów cyfrowych. Natomiast w energoelektronice wzmacniacze kluczowane pełnią funkcję przetworników energii źródła prądu stałego w energię wielkiej częstotliwości, dlatego zamiast określenia wzmacniacz często używane jest określenie inwerter (np. [1, 2] albo falownik (np. [3, 4]. Ideę kluczowanego wzmacniacza rezonansowego klasy DE przedstawiono w 1975 roku (Żukow, Kozyriew [5]). W wzmacniaczu tym zostały wyeliminowane podstawowe wady rezonansowego wzmacniacza mocy klasy D [6, 7]. Powstawanie prądu skrośnego wskutek pokrywania się impulsów bramkowych usunięto poprzez zwężenie tych impulsów tak, aby w cyklu pracy wzmacniacza pojawił się czas martwy, w którym oba tranzystory mocy są wyłączone (rys. 1). Modyfikację taką można zrealizować m. in. poprzez sterowanie tranzystorów przebiegiem sinusoidalnym [6, 7]. Natomiast straty mocy wywołane włączaniem tranzystorów "pod napięciem" (non-Zero-Voltage Switching) i aktywnym ładowaniem i rozładowywaniem pojemności wyjściowych tranzystorów zostały wyeliminowane poprzez zastosowanie odstrojonego obwodu rezonansowego o charakterze indukcyjnym. Dzięki temu w czasie martwym pojemności te są przeładowywane bezstratnie prądem wyjściowego obwodu rezonansowego. Takie bierne przeładowywanie pojemności wyjściowych redukuje także szybkość narastania napięcia na tranzystorze wyłączonym, co ogranicza groźbę jego pasożytniczego włączenia (i w efekcie powstania prądu skrośnego). Wzmacniacz taki nazywany był początkowo wzmacniaczem klasy D ... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Investigation of the reflective properties of layered antiferromagnetic-dielectric structures (Anton ARKHIPOV, Vladimir GNATUSHENKO)
The terahertz radiation is an interesting, important, and actively investigated frequency region. Development of this range is limited by a lot of reasons and one of them is a deficiency in a component base [1]. Non-reciprocity based on the non-Faraday effects is presented in this work. There are various ways to obtain nonreciprocal properties for anisotropic layered structures. One way is to use a well-known Faraday rotation effect, such as in optical isolators described in [2]. The handedness of this rotation depends on the propagation direction. In the terahertz region Faraday rotation in the ferrofluid at the room temperature was described in the work [3]. The electrically tunable Faraday effect in HgTe thin film is presented in [4]. Electrical control of the room-temperature Faraday effect was described there. High speed amplitude and phase modulators based on such structures were proposed in that paper. Near-infrared Faraday rotation in antiferromagnetic was described for example in paper [5] where laser pulse translation and signal transients in FeBO3 were observed as functions of sample temperature. Next way to obtain nonreciprocal properties is using nonlinear materials in heterostructures. For example in [6] the heterostructures based on the piezoelectric and semiconductor layers was proposed for radio-frequency application. Surface acoustic wave isolator based on two physical phenomena - strongly nonlinear interaction and drifting electron system was proposed here. Another examples of nonreciprocal properties of nonlinear devises in terahertz region was presented in paper [7] where a Faraday isolator operating on the coupled microwave resonators circuit. Another way is to use nature non-reciprocity of anisotropic materials. These properties are widely investigated and described later. For example non-reciprocity reflection in semi-infinitive layered magnetic-dielectric structures is described in [8]. Properties asso... więcej»

Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros&#8201;)
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Skanowania optyczne powierzchni jako narzędzia oceny ilościowej i jakościowej powierzchni warstw i powłok (Konstanty W. Marszałek, Janusz Jaglarz )
Metody skaningu optycznego stosowane są do pomiarów topografii cienkich przeźroczystych warstw oraz warstw wierzchnich. Metody optyczne poza topografią mogą również obrazować zmiany w obszarze objętości warstwy (np.: centra rozpraszania w warstwie, defekty krystaliczne itp.). W badaniach optycznych powierzchnie warstwowe można skanować przez przesuwanie wiązki światła białego lub laserowego prostopadle do próbek z jednoczesnym pomiarem współczynnika odbicia. Na takiej metodyce pomiarowej opiera się profilometria optyczna (PO ). Inną metodą skaningową jest skaningowa elipsometria spektroskopowa (SSE) wykorzystująca światło spolaryzowane. W tej metodzie liniowo spolaryzowana wiązka światła jest przesuwana wzdłuż próbki przy ustalonym kącie padania na próbkę. W każdym kroku wyznaczana jest zmiana polaryzacji światła odbitego od badanej warstwy., Profilometria optyczna (PO ) jest jedną z odmian metod profilometrycznych, w której igła skanująca (jak to ma miejsce w mikroskopii AFM, czy profilometrii stykowej) została zastąpiona wiązką światła [1-4]. PO jest metodą bezkontaktową więc nie niszczy próbek, jak to często ma miejsce w profilometrii mechanicznej oraz w AFM przy badaniu materiałów miękkich np. polimerów. W połączeniu z metodami stykowymi może służyć do rozdzielenia rozproszenia światła spowodowanego zmiennym składem materiałowym powierzchni od topograficznego, wynikającego z istnienia nierówności. [5]. Inną niewątpliwą zaletą PO jest możliwość pomiaru grubości warstw zmieniających się wzdłuż powierzchni na którą warstwa została naniesiona. W PO rozdzielczość boczna jest zdeterminowana przez średnicę wiązki światła. W nowoczesnych profilometrach stosowane są skolimowane wiązki laserowe o średnicy poniżej 1 &#956;m [6]. W PO próbka oświetlana jest relatywnie małym w stosunku do powierzchni próbki obszarze. Tą cechą PO różni się od standardowej mikroskopia optycznej w której oświetlana jest duża powierzchnia próbek. Tę wł... więcej»

Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Microfluidic valve made in LTCC (Low Temperature Co-fired Ceramic) technology - preliminary results (Mateusz Czok, Karol Malecha, Leszek Golonka)
The history of the LTCC (Low Temperature Co-Fired Ceramics) technology dates back to early 80s, when it was developed by Hughes and DuPont. Since then the LTCC technology has attracted extraordinary attention in fabrication of hybrid circuits, sensors, and microsystems [1]. The typical LTCC module is built of several ceramic layers with internal and external mechanical and electrical structures. All parts are connected together and create one, complex multilayer structure. The LTCC technology provides possibilities of using embedded and external (on both sides of the module) components in combination with excellent mechanical and thermal properties of ceramic material. Typical LTCC module is a multilayer structure constructed from dielectric tapes. Different patterns of conductors, resistors and dielectrics can be deposited on the LTCC tape layers using screen-printing or ink-jet printing techniques. Thick-film conductors and passives can be fabricated as a surface or embedded structures. Moreover, additional passive and active components can be easily assembled on the top or bottom surface of the LTCC module using various mounting techniques (e.g. surface mounting technique, flip-chip etc.). Originally, LTCC modules provided only electrical functions, but some features of the LTCC technology allowed expanding its applications. The main features of the technology are: possibility of 3D structure creation, chemical resistance, possibility of working at high temperature and harsh environment, ability of using typical thick... więcej»

Metody syntezy komparatorów z wykorzystaniem języka Verilog w środowisku Quartus II (Marek Gruszewski )
W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przesyłania i przetwarzania informacji. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CPLD) oraz bezpośrednio programowalne macierze bramek (FPGA) [1]. Rozbudowany układ cyfrowy na ogół przedstawia się jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych [2-5]. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy bloków funkcjonalnych w strukturach CPLD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach (&#1086;d 64 bitów wzwyż). Znane metody syntezy standardowych bloków funkcjonalnych ukierunkowane są na elementy małej skali integracji (typu bramki) i nie uwzględniają całkowicie właściwości nowej bazy elementowej (CPLD/FPGA). Do takich bloków funkcjonalnych należą m.in. komparatory binarne. Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy, klasycznych oraz nowatorskich [6-10]. W pracach [7, 8] badania przeprowadzono za pomocą środowiska MAX+PLUS II. Ponieważ język AHDL i pakiet MAX+PLUS II nie jest obecnie rozwijany przez firmę Altera, to istotne jest opracowanie metod syntezy komparatorów dużych rozmiarów (pracujących ze słowami dużych rozmiarów) za pomocą współcześnie wykorzystywanych języków opisu sprzętu takich jak: VHDL i Verilog. W ostatnim czasie coraz większą popularność zdobywa język Verilog [11, 12], który wspierany jest przez większość producentów oprogramowania do projektowania układów cyfrowych. W pracy przedstawiono różne metody syntezy komparatorów z wykorzystaniem języka Verilog: równoległe, szeregowe, równoległo- szeregowe, &#1072; także równoległo-szeregowe z wykorzystaniem edytora graficznego. Badania eksperymentalne przeprowadzono w środowisku Quartus II firmy Alter... więcej»

Methods and tools for multi-criteria selection of sensor system components (Ryszard Świerczyński, Krzysztof Urbański, Artur Wymysłowski )
Choosing an optimal set of components required to build a complete sensor system is challenging and time-consuming task due to huge amount of available electronic components and constrains (input parameters) which have to be taken into account during this process [1]. Predicted fast growth of sensor systems market in the near future (for example, environmental sensor and monitoring market is expected to reach $15.3 billion in 2016 based on BCC Research report) requires better, more efficient design tools and methods to shorten time-to-market period for the new products. It is especially important not just to re-use "well-known and proven solutions", but to choose the best available system components. Without support in the form of computer tools, this task is virtually impossible. Single device selection tools (search engines) are widely supported by electronic component manufacturers and distributors. It is easy to find a device meeting specified requirements, even across various manufacturers. The matter becomes more difficult when one needs to select the optimum set of components at the level of the whole system. In this paper a new approach and design tool is proposed to speed-up designing process of complex sensor system. Emphasis is placed on providing ready-to-use software for selection of a set of available components rather than DEBYS approach proposed for ASIS systems in [3, 4]. Combined database containing detailed component parameters and parametric models in conjunction with external simulatio... więcej»

Światłowodowe czujniki wielkości chemicznych, środowiskowych i biologicznych - EWOFS2013 (Ryszard S. Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych (OFS) kilka lat temu dała początek cyklicznym Europejskim Warsztatom Czujników Światłowodowych (EWOFS). Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe, jak np. konferencja Photon we Francji. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich Zastosowania", organizowanych naprzemiennie przez ośrodki technologiczne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbędzie się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014. Pierwsza krajowa konferencja z tego cyklu odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. z niezapomnianym uczestnictwem profesorów J. Groszkowskiego, A. Waksmundzkiego, A. Smolińskiego, B. Paszkowskiego, Z. Szpiglera. Obecnie w krajowych konferencjach Światłowody i ich Zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z kraju oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały lu... więcej»

Impedance matching between antenna and chip in RFID transponder of UHF Band (Piotr Jankowski-Mihułowicz, Wojciech Lichoń, Grzegorz Pitera, Mariusz Węglarski)
Radiative coupling radio frequency identification (RFID) systems of the UHF band (860 to 960 MHz) [1] work in the range of far field where emitted wave (of frequency f0) is not only a data carrier but first of all an energy source (of power density S). The electromagnetic field is generated by a read/write device (RWD). The RWD antenna together with transponder antennas comprise a radio communication arrangement which has to be wave and impedance matched. It should be emphasised that the classical impedance matching of a transmitter and receiver is established only between the RWD output and connected antenna (50 &#937;). If a transponder appears in the interrogation zone (IZ), it can be supplied with energy and the data can be exchanged (Fig. 1a) but the backscattering modulation is used to send answers back to the RWD. In the transponder backscattering response the emitted wave is only partially reflected towards the RWD because of switching load impedance of the internal chip - this process is extremely power-saving but also conveyed energy has limited amount. The minimal power PTmin (chip sensitivity) is required for activating communication process (Fig. 1b). Appropriate communication mechanisms are defined by ISO protocols, e.g. ISO/IEC 18000-6 (EPC Class 1 Gen 2), 18000-4 for UHF band. They determine the interrogation zone which is a basic application parameter of RFID systems. The IZ is a space zone around the RWD antenna which boundaries are dependent first of all on the transponder antenna construction and impedance matching to the chip input and can be estimated by using e.g. Monte Carlo method [2]. So, the specific parameters of the chip and target application have to be... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»