profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Struktury kwantowe ZnMgO/ZnO/ZnMgO wykonywane metodą MBE (Adrian Kozanecki, Jacek Sajkowski, Marcin Stachowicz, Ewa Przeździecka, Marcin Syperek)
Tlenek cynku i jego stopy np. z Mg są intensywnie badane ze względu na potencjalnie szerokie możliwości zastosowań w urządzeniach optoelektronicznych takich, jak źródła światła UV [1], selektywne detektory UV [2], lasery UV, przezroczyste tranzystory cienkowarstwowe [3] i szereg innych. Dla poszczególnych zastosowań konieczna jest inżynieria przerwy energetycznej. Stapienie ZnO z MgO pozwala na zwiększenie przerwy energetycznej z 3,3 eV dla ZnO o strukturze wurcytu do 7,8 eV dla MgO, które ma strukturę kubiczną typu NaCl. Niedopasowanie strukturalne ZnO i MgO powoduje, że przy wzroście ZnMgO pojawia się poważny problem separacji faz dla zawartości Mg powyżej 40% [4]. Dlatego celowe jest staranne kontrolowanie składu ZnMgO i dla większości zastosowań utrzymywanie go poniżej 30% dla zachowania wysokiej jakości warstw ZnMgO. Niezwykle cenną zaletą ZnO jest wysoka wartość energii wiązania ekscytonu swobodnego, wynosząca 60 meV. W studniach kwantowych ZnMgO/ZnO/ZnMgO energia wiązania ekscytonu może wzrosnąć nawet do 100 meV, co pozwala myśleć o skonstruowaniu urządzeń optoelektronicznych, wykorzystujących rekombinację ekscytonów swobodnych w temperaturze pokojowej. Wysoka wartość energii wiązania ekscytonu wiąże się bezpośrednio z małym promieniem bohrowskim, wynoszącym zaledwie ok. 1,8-2,0 nm. Tak mała wartość promienia Bohra powoduje, że dla obserwacji efektów związanych z kwantowym efektem rozmiarowym konieczne jest otrzymywanie struktur kwantowych o szerokościach mniejszych niż 2*aB, a więc ~4 nm. Z tego samego powodu dla zbadania procesów tunelowania pomiędzy studniami kwantowymi, np. w układach studni sprzężonych lub wielostudni, konieczne jest stosowanie barier ZnMgO o grubościach poniżej 2-3 nm. W tej pracy zaprezentowane są badania struktur ZnMgO/ ZnO/ZnMgO otrzymywanych metodą epitaksji z wiązek molekularnych (z ang. MBE). W szczególności przedstawione zostaną wyniki prac nad układami asymetrycznych studni podwójnych, ... więcej»

Increasing performance of integrated sub-GHz IEEE 802.15.4 compatible radio transceivers (Łukasz Krzak, Cezary Worek)
The IEEE 802.15.4 specification [1] is one of the most important standards describing low-rate and short range wireless area networks. It constitutes a common basis for several commercially available and well-recognized radio communication protocols such as ZigBee family of protocols (including ZigBeeIP), WirelessHART, ISA 100.11a and 6LoWPAN [5]. In terms of the ISO OSI layers, the IEEE 802.15.4 specification defines the physical layer (PHY) and medium access control (MAC) sublayer, on top of which the previously mentioned protocols are built. During the last 10 years of development, the standard was amended several times to include new PHY options. Currently the standard defines many frequency channels and modulation options including ASK, BPSK, O-QPSK, GFSK, OFDM, CSS (chirp spread spectrum) and UWB (ultra-wide band), however not all of them gained much industry attention. Table 1 gathers some of the most popular PHYs, present in the currently commercially available radio transceivers, along with their availability in different regions of the world [3]. There are many IEEE 802.15.4 compatible transceivers available on the market, however the great majority of them are designed for operation in the 2.4 GHz band utilizing the O-QPSK PHY. The sub-GHz bands are less popular, however their main advantage over the 2.4 GHz band is better propagation and material penetration. Also, in the IEEE 802.15.4g-2012 amendment, several new sub-GHz PHYs were introduced, including 169 MHz band to standardize smart utility networks (SUNs), such as those used for advanced metering infrastructure (AMI). Although the 2.4 GHz PHYs are dominant in consumer applications, the sub-GHz remains important in industrial areas where quality of service is essential. The final data transmission reliability is, however, a product of several qualities, including those resulting from hardware design as well as software implementation. In this article the autho... więcej»

Symulacja 3D EM urządzeń elektronicznych powszechnego użytku pod kątem kompatybilności elektromagnetycznej EMC (Andreas Barchanski, Jarosław Kwiatkowski)
Przepływ prądu w urządzeniach elektronicznych generuje pole elektromagnetyczne. Gdy wiele urządzeń pracuje we wspólnym środowisku, wówczas oddziaływują one na siebie poprzez pole elektromagnetyczne, a to może wpływać na ich parametry lub nawet powodować ich uszkodzenia. W celu zmniejszenia ryzyka występowania problemów związanych z kompatybilnością elektromagnetyczną, normy EMC narzucają limity ograniczające poziomy emisji wytwarzanych przez urządzenia, które muszą być brane pod uwagę w procesie projektowania. Efekty powodujące problemy EMC, takie jak rezonanse, sprzężenia i wycieki pola, są jednak skomplikowane i często są trudne do przewidzenia, tak więc tradycyjne podejście do projektowania uwzględniającego EMC pociąga za sobą konieczność pomiarów. Testy EMC są wykonywane jednak dopiero na późnym etapie procesu projektowania, już po wykonaniu prototypu. Budowa prototypu reprezentuje bowiem znaczne koszty w procesie rozwoju produktu. Obejmują one niezbędny czas wykonania, nakład pracy i koszty materiałowe. Dlatego walka z problemami EMC na tym późnym etapie projektowania wymaga znacznych poświęceń. Zlokalizowanie źródła problemu EMC w złożonym systemie elektronicznym, jest często bardzo trudne i czasem wszystko, co konstruktor może zrobić, to tylko zwalczać objawy. Dzięki elektromagnetycznym symulacjom komputerowym parametry urządzenia pod kątem EMC mogą być sprawdzane na każdym etapie cyklu projektowego. W szczególności wyniki symulacji mogą wpływać na projekt urządzenia, umożliwiając wirtualne testowanie wielu możliwych konfiguracji - na przykład różniących się ustawieniem płytki lub położeniem elementu - stosunkowo szybko i tanio. Urządzeniem, które posłużyło za przykład w artykule jest bezprzewodowy router, dostarczony przez Cisco. Router zawiera szereg komponentów, które mogą być analizowane pod kątem kompatybilności elektromagnetycznej w procesie projektowania, i które do pełnej analizy wymagają zastosowania różnor... więcej»

Oscylacyjny model sieci neuronowej jako system wbudowany (Wiesław Citko, Wiesław Sieńko )
Celem niniejszego artykułu jest prezentacja pewnego neuromorficznego modelu systemu inteligencji obliczeniowej. Model taki uzyskano przez wbudowanie filtru ortogonalnego, wykorzystującego strukturę hamiltonowskiej sieci neuronowej, w sieć sprzężonych pętli fazowych. Koncepcja wykorzystującą sieci sprzężonych oscylatorów fazowych do implementacji oscylujących modeli neuromorficznych nie jest nowa [1, 2, 3, 4]. Wydaje się jednak, że w/w koncepcja struktury wbudowanej nie jest opisana w literaturze przedmiotu. Hamiltonowskie sieci neuronowe i filtry ortogonalne Jak wiadomo, autonomiczny system hamiltonowski opisany jest równaniem stanu o postaci: (1) gdzie: x - wektor stanu, ... więcej»

Stabilność spektralna monochromatycznych diod LED w zastosowaniach OSL (Ewa Mandowska, Arkadiusz Mandowski, Bartosz Nitsze)
Rosnące wymagania i zaostrzane normy bezpieczeństwa wymuszają poszukiwanie nowych, lepszych technik pomiarowych. Od kilku lat zdecydowanie najbardziej obiecującą metodą stała się optycznie stymulowana luminescencja (OSL). Technikę OSL zaczęto stosować w dozymetrii promieniowania jonizującego stosunkowo niedawno, od drugiej połowy lat 90. Rolę detektora OSL pełni odpowiednio przygotowany materiał (np. Al2O3:C) w osłonie światłoszczelnej [1]. W obecności promieniowania jonizującego stany pułapkowe detektora zapełniają się. Pułapki są metastabilne i charakteryzują się bardzo długim czasem życia. Zapisana informacja jest więc trwała - można ją odczytać nawet po wielu latach (nawet tysiącach lat) od naświetlenia. Określając liczbę nośników uwięzionych w pułapkach możemy wyliczyć dawkę promieniowania pochłoniętą przez detektor. Odczytu dokonuje się w specjalnym urządzeniu (czytniku) wykorzystującym technikę OSL. Idea tej metody polega na stymulacji napromieniowanego detektora bardzo silnym światłem o długości fali &#955;s (np. światło zielone). Światło to powoduje uwolnienie nośników ładunku znajdujących się w pułapkach i w efekcie, poprzez rekombinację promienistą, emisję luminescencji. Część tej luminescencji w zakresie krótkofalowym &#955; < &#955;s możemy zarejestrować odcinając się od bardzo silnej składowej &#955;s odpowiednim układem filtrów. W porównaniu do czytnika TL eliminacji uległ tutaj moduł grzania. Dzięki temu, możliwa jest bardziej zwarta, kompaktowa budowa czytnika. Kolejną korzyścią jest też krótszy czas pomiaru i możliwość jego wielokrotnego powtarzania, gdyż pomiar OSL nie zeruje całkowicie zapisanej informacji. W układach pomiarowych stosowanych w detekcji OSL do stymulacji detektora wykorzystuje się monochromatyczne elektroluminescencyjne diody LED [2, 3]. Warunkiem przeprowadzenia rzetelnych pomiarów jest wysoka stabilność spektralna stymulującego światła. Producenci diod LED podają parametry pracy swoich pr... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Polska premiera HUAWEI Ascend P7
Firma HUAWEI prezentowała na polskim rynku najnowszy smartfon serii Ascend P - HUAWEI Ascend P7. Grubość zaledwie 6,5 mm sprawia, że następca popularnego modelu Ascend P6, jest jednym z najcieńszych smartfonów 4G LTE na świecie. Elegancka, metalowa obudowa pokryta szkłem, unikalne funkcje aparatu fotograficznego umożliwiające m.in. wykonywanie panoramicznych autoportretów czy 10-poziomowy, a... więcej»

Wpływ tylnej warstwy typu p+ na parametry ogniwa słonecznego na bazie krzemu typu p na podstawie obliczeń wykonanych programem komputerowym PC-1D (PIOTR PANEK, KAZIMIERZ DRABCZYK, ROBERT PIOTR SOCHA, PAWEŁ ZIĘBA)
Założenia obliczeń komputerowych programem PC-1D Program komputerowy PC-1D służy do obliczania wyjściowych parametrów elektrycznych krzemowego ogniwa słonecznego na podstawie wprowadzonych numerycznych wartości parametrów materiałowych związanych z technologią wykonania ogniwa [1]. Program PC-1D w wersji 5.9 jest dostępny do bezpłatnego pobrania na stronie internetowej uniwersytetu Nowej Południowej Walii [2]. Użyte w nim metody numeryczne do obliczeń komputerowych opierają się na klasycznych równaniach transportu dla elektronów i dziur. Podstawą jest zależność Poissona i równania wiążące koncentrację nośników ładunku z energią poziomów Fermiego wraz z równaniami wiążącymi dynamiczną zmianę koncentracji nośników w wyniku procesu ich generacji, rekombinacji i transportu. Program umożliwia kreację modelu ogniwa zawierającego podział poprzeczny ogniwa na dowolną ilość regionów o określonej grubości, różniących się parametrami materiałowymi. Wszystkie parametry można modyfikować i wprowadzać do programu także ze zbiorów zewnętrznych. Program uwzględnia także parametry optyczne ogniwa i jego oddziaływanie ze źródłem promieniowania elektromagnetycznego generującego fotoprąd. W tab. 1 przedstawiono pełny zakres parametrów stosowanych do symulacji pracy ogniwa słonecznego wytworzonego na bazie krzemu krystalicznego typu p. Są to typowe wartości charakteryzujące ogniwa wytwarzane na linii doświadczalnej laboratorium fotowoltaicznego IMIM i nie odbiegają zasadniczo od parametrów ogniw słonecznych wytwarzanych przemysłowo [3]. Do obliczeń dotyczących wpływu dodatkowej warstwy p+ na parametry ogniwa słonecznego na ... więcej»

System przydziału celów powietrznych do środków ogniowych: maksymalizacja strat wroga (Przemysław M. Czyronis)
Problem przydziału celów powietrznych do środków ogniowych (ang. Weapon-Target Assignment Problem - WTA Problem) jest zasadniczym problemem wynikającym z zastosowań związanych z obronnością, które dotyczą znalezienia optymalnego przypisania środków ogniowych do kanałów celowania. Problem ten jest szczególnym przypadkiem bardziej ogólnego problemu jakim jest alokacja zasobów. Zadania związane z optymalną alokacją posiadanych zasobów posiadają swoje odzwierciedlenie w algorytmach systemów kierowania walką i ogniem Zestawów Rakietowych Obrony Powietrzenej. Użycie relatywnie dużej liczby pocisków rakietowych rozlokowanych na wielu wyrzutniach przy zmieniającej się sytuacji powietrznej wymaga wsparcia operatorów przez dedykowane systemy informatyczne. W przypadku kiedy mamy do czynienia z mniejszą celów powietrznych od liczby dostępnych kanałów celowania, problem się znacząco upraszcza. W sytuacji odwrotnej musimy zdecydować, które wybrane cele powietrzne zostaną przypisane do poszczególnych kanałów celowania. W tym przypadku na proces decyzyjny ma wpływ wiele czynników, takich jak: chwila czasowa wejścia celu powietrznego strefę rażenia, czas jego przebywania w strefie startu pocisków rakietowych, liczba przypisanych już celów powietrznych do danej wyrzutni czyli ilość wolnych kanałów celowania, liczba dostępnych pocisków rakietowych, priorytetowość (ważność) zwalczania danego celu, prawdopodobieństwo trafienia w cel, rodzaj przyjętej strategii. Rozważymy statyczny problem przydziału celów powietrznych do środków ogniowych pod względem optymalizacji różnych wskaźników jakości, określających pożądany efekt taki jak: zmaksymalizowanie strat w ugrupowaniu wroga (ang. total expected damaged value of the targets), zminimalizowanie liczby wrogich obiektów (ang. total expected value of the surviving targets). W każdym z przypadków zakładamy, że jest znana liczba celów powietrznych jak i predykcja ich trajektorii lotu (w ograniczonym ... więcej»

Czasopisma NT, indeksy, cytowania, bazy danych, wydawnictwa cyfrowe, bibliometria. Część 2 (Ryszard S. Romaniuk)
W części pierwszej artykułu omówiono pobieżnie kilka następujących zagadnień: czasopisma NT w erze dynamicznych mediów cyfrowych, wersja papierowa a bazodanowa czasopism, wirtualne czytelnie, zdrowe ambicje lokalnych czasopism NT wejścia do globalnych baz danych, polityka ustawodawcy dotycząca rynku wydawniczego czasopism naukowo-technicznych w kraju, otwarte wydawnictwa cyfrowe, czasopisma międzynarodowych organizacji NT, krajowe czasopisma NT, krajowy rynek wydawniczy czasopism NT, cytowania, pozycjonowanie (lokowanie) czasopism, indeksy bibliometryczne, licencjonowanie prawno-autorskie CCL, e-wydawnictwa krajowych czasopism NT - pytania z odpowiedziami i bez. W części drugiej ten pobieżny wywód jest kontynuowany z ukierunkowaniem na poważny dylemat wyboru czasopism wobec ryku wydawniczego otwartego i komercyjnego. Ponadto przedstawiono listę baz danych e-nauki i bibliograficznych oraz glosariusz wybranych terminów bibliograficznych. Ponadto powtórzono znaczne fragmenty wstępu do części pierwszej. W kraju wydawanych jest co najmniej kilkadziesiąt, liczących się także za granicą, lokalnych czasopism naukowo- technicznych (NT). Część z nich, wydawanych w języku angielskim, posiada międzynarodowe indeksy wydawnicze. Żadne z nich jednak nie posiada charakteru globalnego w sensie jakości i ilości wydawanych prac. W dziedzinie elektroniki i telekomunikacji takich czasopism o międzynarodowej renomie jest kilka, podobnie jak i w obszarze automatyki, robotyki i informatyki. Dodatkowo wydawanych jest zapewne kilkadziesiąt dobrych czasopism NT polskojęzycznych (lub także wydających okazjonalnie materiały po angielsku) cieszących się uznaniem i popularnością w swoich obszarach tematycznych w środowisku NT. Ustawodawca faworyzuje ze względów parametryzacyjnych, i internacjonalizacji krajowych środowisk NT czasopisma anglojęzyczne. Rynek wydawniczy czasopism NT jest w kraju znaczny. Czasopisma NT są znaczną częścią całego środowiska, ... więcej»

Wybrane zagadnienia pomiarów zaburzeń na statkach morskich (Karol Korcz, Beata Pałczyńska, Ludwik Spiralski)
Występowanie silnych, zakłócających pól elektromagnetycznych w środowisku statku morskiego może w sposób bezpośredni wpływać na niezawodność okrętowych urządzeń oraz systemów elektrycznych i elektronicznych. Jest również nieobojętne dla bezpieczeństwa ludzi przebywających w pobliżu silnych źródeł tych pól. Dlatego też problematyka związana z pomiarami zakłóceń i kompatybilnością elektromagnetyczną na statkach morskich jest tak istotna. Efektem pracy zespołu badawczego jest zaprojektowanie komputerowego systemu do pomiaru przede wszystkim pola elektromagnetycznego w zakresie małych częstotliwości, a także badania zaburzeń odbiornika radiokomunikacyjnego. System pracuje w zintegrowanym środowisku programowania LabVIEW, w którym wirtualne przyrządy pomiarowe oprogramowane są z wykorzystaniem opracowanych, autorskich procedur [1-3]. Komputerowy system pomiarowy W schemacie funkcjonalnym systemu pomiarowego można wyróżnić dwie główne części (rys. 1): - sprzętową (czujniki i układy kondycjonowania sygnału, blok akwizycji danych pomiarowych z kartą pomiarową, źródło sygnału testowego), - programową (blok przetwarzania i analizy danych, blok interfejsu graficznego). System umożliwia pomiar charakterystyk zakłóceń małoczęstotliwościowych w sieciach zasilania, urządzeniach i systemach energoelektronicznych, elektronicznych, w tym urządzeniach radiokomunikacyjnych a także pomiar wolnozmiennego pola elektromagnetycznego [4, 5]. Badania wolnozmiennego pola elektromagnetycznego Za pomocą zaprezentowanego systemu pomiarowego dokonano oceny poziomu, w tym emisji pola elektromagnetycznego w odniesieniu do dopuszczalnych wartości zawartych w... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Nowoczesne techniki montażu 3D (Wojciech Stęplewski, Grażyna Kozioł, Józef Gromek, Piotr Ciszewski, Tomasz Krzaczek)
Trend w kierunku miniaturyzacji, zwiększenia szybkości działania, funkcjonalności i niezawodności urządzeń elektronicznych powoduje pojawianie się na rynku nowych podzespołów i technologii ich sprzężenia oraz montażu. Nowoczesne, mobilne urządzenia multimedialne wymagają bardzo krótkich czasów połączeń procesora i pamięci. Wymusza to zapotrzebowanie na rozwiązania gwarantujące maksymalne skrócenie czasu cyklu odczyt-zapis, przy jednoczesnym niskim zużyciu energii i niskim poziomie szumów i przesłuchów. Najszybszą metodą zapewnienia tych wymagań jest bezpośrednie połączenie pamięci z procesorem poprzez spiętrzanie, czyli nabudowywanie jednej struktury nad drugą. Obecnie jedną z najszybciej rozwijających technologii spiętrzania jest technologia Package on Package (PoP). Technologia PoP polega na piętrowym montażu techniką lutowania jednego lub kilku układów pamięciowych na położonym niżej układzie procesora, montowanym na płytce obwodu drukowanego. Układ procesora oraz pamięci zamknięte są w obudowach typu BGA (Ball Grid Array). Bliskość struktur półprzewodnikowych sprzyja korzystaniu z szybkich połączeń szerokopasmowych i tym bardziej zmniejsza zapotrzebowanie na powierzchnię na płytce drukowanej [1, 2]. Ten sposób montażu przy zwiększonej gęstości upakowania poprawia szybkość działania układów i odporność na zakłócenia elektromagnetyczne (EMC), pozwala również na wcześniejsze przetestowanie każdego z elementów struktury PoP osobno. Szczególnie jest to ważne dla układów logicznych, ponieważ potrzebują one często dużo bardziej skomplikowanej metodologii testowania. Architektura układów PoP pozwala na integrację układów logicznych o wysokiej wydajności (element dolny modułu) z pamięciami o dużych pojemnościach (element górny modułu) w elastycznym opakowaniu 3D. W ten sposób układy te stały się ciekawym rozwiązaniem w urządzeniach multimedialnych: smartfonach, tabletach, aparatach cyfrowych, urządzeniach GPS itp., gdzie ważna je... więcej»

Metoda skróconego badania niezawodności układów pamięci NAND FLA SH (Krzysztof Bąk)
Podstawą procesu produkcyjnego, na podstawie którego powstał poniższy artykuł, są układy pamięci NAND FLASH dostarczane w postaci rdzeni krzemowych. Rdzenie krzemowe stanowią półprodukt wymagający umieszczenia w obudowie i późniejszego przetestowania. Półprodukt charakteryzuje się nieznanym typem i liczebnością defektów. Defekty te mają nieznane modele i mogą ujawniać się w całym okresie użytkowania urządzenia. Następstwem defektu jest błąd, często bez możliwości wskazania typu i lokalizacji uszkodzenia. Brak dostępu do interfejsu diagnostycznego układów pamięci powoduje, że niemożliwe jest akcelerowanie napięciowe defektów oraz prowadzenie pomiarów wewnętrznych parametrów pracy. Skutkiem tego jest ograniczenie testu do sekwencji: kasowania, programowania, odczytu danych wzorcowych, zadanych przez tester oraz w docelowym środowisku pracy. W przytaczanym procesie produkcyjnym, pierwszym etapem procesu jest test układów pamięci w testerze. Procedura testowa omówiona w [10] składa się z sekwencji algorytmu MATS[6] testujących komórki pamięci znajdujące się w stronach. Pomiędzy cykl zapisu i weryfikacji danych wprowadzona jest kontrola upływności danych polegająca na wygrzewaniu układów pamięci w zadanej temperaturze i czasie. W wyniku przeprowadzonego testu odrzucane są układy pamięci charakteryzujące się nadmierną upływnością danych oraz te, w których liczba błędnych bitów w danych testowych przekracza ustalone progi. Testowanie w aplikacji - którą jest dysk SSD (ang. Solid State Drive), jest przeprowadzane w maksymalnej temperaturze pracy SSD i polega na zapisie/odczycie danych wzorcowych poprzez interfejs SATA [11]. Tak przeprowadzony test jest kontrolą w maksymalnych warunkach użytkowania układów pamięci w docelowym środowisku pracy. Konsekwencją ograniczenia sekwencji testowych do zapisu i odczytu danych jest brak możliwości pobudzania defektów mogących ujawnić się w okresie użytkowania (okres II), w którym głównie powin... więcej»

Alternatywna do procesu ENIG powłoka lutownicza (Tomasz Klej, Karolina Borowiecka, Dariusz Ostaszewski, Edward Ramotowski)
Wraz ze wzrostem wymagań producentów układów elektronicznych wzrasta zapotrzebowanie na rozwiązania mające spełnić ich oczekiwania. Dotyczy to nie tylko miniaturyzacji i zwiększania liczby połączeń na płytce drukowanej ale także polepszania jej właściwości elektrycznych oraz eliminacji błędów związanych z procesem produkcyjnym. Istotną rolę w obwodach drukowanych spełniają powłoki ochronne osadzane na polach kontaktowych. Ich celem jest zapewnienie dobrej lutowności pól kontaktowych, zabezpieczenie odkrytych płaszczyzn miedzi przed narażeniami środowiskowymi oraz nie pogorszanie własności elektrycznych w obwodach z integralnością sygnałową. Współczesne konstrukcje obwodów, szczególnie typu HDI, zawierające układy bezwyprowadzeniowe wymagają planarności pól lutowniczych. Jedną z najczęściej stosowanych powłok ochronnych jest ENI G (electroless nickel immersion gold) tzw. "złoto chemiczne". Powłoka ta jest dobra w wielu zastosowaniach, ale droga w stosowaniu z dość wąskim oknem technologicznym w procesie osadzania. Lutowanie do złota chemicznego jest lutowaniem do niklu. Cienka warstwa złota, stanowiąca zewnętrzną warstwę ENI G, ma zapobiegać przed pasywacją niklu i (tym samym) zapewnić jej dobra lutowność. Zdarza się, że osadzona powłoka ma pogorszoną lutowność bez żadnych widocznych w procesie kontroli objawów. Zawsze należy się też liczyć z pojawie... więcej»

Dobór materiałów lutowniczych do technologii PoP (Grażyna Kozioł, Józef Gromek, Wojciech Stęplewski, Piotr Ciszewski, Tomasz Krzaczek )
Rozwój urządzeń elektronicznych, w których jednym z podstawowych wymagań jest szybkość działania, powoduje pojawianie się na rynku podzespołów elektronicznych gwarantujących maksymalne skrócenie czasu cyklu odczyt-zapis przy jednoczesnym niskim zużyciu energii i niskim poziomie szumów i przesłuchów. Naturalną metodą zapewnienia tych wymagań jest bezpośrednie połączenie pamięci z procesorem. Obecnie jedną z najszybciej rozwijających się metod zapewnienia bezpośredniego połączenia procesorów z pamięcią jest ich spiętrzanie, czyli bezpośrednie połączenie techniką lutowania jednego lub kilku układów pamięciowych w obudowach typu BGA (ang. Ball Grid Array) do położonego niżej układu procesora także wykonanym w technice BGA i montowanym bezpośrednio do płytki obwodu drukowanego. Obudowa procesora stanowi mechaniczną bazę konstrukcyjną, na której montowane są piętrowo pamięci. Najczęściej montowana jest jedna pamięć, ale istnieje również możliwość montażu większej ich ilości. Bliskość struktur półprzewodnikowych sprzyja korzystaniu z szybkich połączeń szerokopasmowych i tym bardziej zmniejsza zapotrzebowanie na powierzchnię na płytce drukowanej [1].Montaż podzespołów w technologii Package on Package (PoP) na płytkach drukowanych stanowi duże wyzwanie, przede wszystkim z powodu dużej liczby wejść/wyjść tych podzespołów rozmieszczonych w bardzo małym rastrze (nawet poniżej 0,65 mm) i przy średnicy wyprowadzeń sferycznych rzędu 0,3-0,35 mm. Montaż dwóch (lub więcej) modułów PoP przyczynia się do występowania większego ryzyka odkształcenia struktury (efekt warpage). Ponadto występuje tutaj także zwiększone ryzyko powstawania typowych błędów montażowych dla podzespołów z wyprowadzeniami sferycznymi pod obudową takich jak zwarcia pomiędzy sąsiednimi kulkami układu (mostki), zimnych lutów, braku kulek lub ich zniekształcenia powierzchniowe, efektu "głowa na poduszce" (ang. Head on pillow) i pustych przestrzeni w połączeniach (ang. voids) ... więcej»

Badania magnetycznych czujek stykowych stosowanych w systemach alarmowych (Stefan Kuciński)
W systemach alarmowych stosowane są różne rodzaje czujek, w zależności od określonych sposobów ochrony obiektów. Powszechnie stosuje się pasywne i aktywne czujki podczerwieni, czujki mikrofalowe, ultradźwiękowe lub czujki dualne składające się z dwóch detektorów, np. podczerwieni i mikrofal. Metodyka ich badań przedstawiona jest w odpowiednich normach, a także w różnych publikacjach, np. [1 i 2]. Dużą grupę stanowią również czujki magnetyczne stykowe, które zwane są też kontaktami magnetycznymi. Czujki te stosowane są w systemach alarmowych głównie do ochrony okien, drzwi, bram lub innych elementów ruchomych, przez które jest możliwe wejście do chronionego obiektu. Mogą one być instalowane na elementach drewnianych, plastykowych i metalowych. Współpracują z centralami alarmowymi, które monitorują stan czujek i przetwarzają otrzymywane sygnały. Zadaniem czujek magnetycznych jest wysłanie do centrali odpowiedniego sygnału w przypadku, gdy nastąpiła próba wtargnięcia do wnętrza chronionego obiektu lub też, gdy nastąpiła próba uszkodzenia czujki lub przerwania połączeń między nią a urządzeniami współpracującymi. Rodzaj przesyłanego sygnału wynika ze stanu czujki (zwarcie lub rozwarcie styku). Czujki te są również wykorzystywane w systemach automatyki. Ich szeroki zakres zastosowań wynika ze szczególnych właściwości - charakteryzują się wysoką odpornością na zabrudzenie, zapylenie i wibracje, a także prostą budową i niskim kosztem. Niektóre z tych czujek posiadają zdolność do pracy w szerokim zakresie temperatur, a także charakteryzują się wysokim stopniem ochrony przeciwsabotażowej, co umożliwia stosowanie ich w miejscach wymagających szczególnego nadzoru. W przypadku ochrony pomieszczeń mieszkalnych istotną właściwością czujek magnetycznych jest ich niewrażliwość na poruszanie się w tych pomieszczeniach zwierząt domowych. Czujki magnetyczne mają bardzo prosta budowę, składają się z dwóch elementów magnesu trwałego i kontaktronu.... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Relacyjna baza danych przechowująca dane z doświadczeń związanych z ochroną roślin - proces projektowania (Małgorzata Tartanus, Tadeusz Antczak )
We współczesnym świecie, zdominowanym przez olbrzymią ilość różnorodnych informacji, nie sposób sobie wyobrazić efektywnego funkcjonowania człowieka bez możliwości i udogodnień, jakie oferują bazy danych. Obecnie człowiek spotyka się na co dzień z tak dużą ilością i różnorodnością informacji, iż trudno byłoby mu je wszystkie zapamiętać, a w konsekwencji mógłby łatwo się pogubić w ich efektywnym wykorzystaniu dla swoich potrzeb. Praktycznie każdy rodzaj informacji, z jakim ma do czynienia człowiek w swoim środowisku, daje się przechowywać w bazach danych. Dlatego bazy danych stały się nieodzownym narzędziem w przechowywaniu informacji, a następnie ich przetwarzaniu, zgodnie z potrzebami współczesnych ludzi. Bazę danych można zdefiniować m.in. jako model pewnego wycinka świata rzeczywistego (niekoniecznie istniejącego fizycznie lub też takiego, który nigdy fizycznie nie istniał), który jest przedmiotem zainteresowania przyszłych użytkowników. Takim fragmentem rzeczywistości, który może być zamodelowany przy wykorzystaniu baz danych, jest rolnictwo, a dokładniej, jego poszczególne działy, w tym choćby badania i doświadczenia naukowe prowadzone w tym obszarze aktywności współczesnego człowieka. W literaturze można znaleźć przykłady aplikacji bazodanowych wspomagających producentów płodów rolnych w ich codziennej pracy [6, 4, 8], a także wyniki badań dotyczących różnych aspektów związanych z produkcją rolną [9], które dotyczą możliwości wykorzystania baz danych w tym obszarze badań naukowych. Systemy gromadzenia danych o sprzedaży i zużyciu środków ochrony roślin są podstawą krajowych strategii zrównoważonego stosowania środków ochrony roślin [5]. Aktualnie trudno wyobrazić sobie produkcję płodów rolnych bez stosowania środków ochrony roślin. Celem niniejszych rozważań jest przedstawienie relacyjnej bazy danych "Archiwum dokumentów", która usprawnia prowadzenie badań i doświadczeń naukowych związanych z ochroną roślin. Jej głó... więcej»

Obtaining 3D information from 2D images (Piotr Szymczyk, Magdalena Szymczyk, Mirosław Gajer)
Modern surveillance systems are based on the analysis of CCT V cameras. One of the problems that are encountered when trying to use an image for further analysis in terms of surveillance is the lack of information about the perspective. It is possible to use stereovision, but such a solution is expensive and complicated. Normal image does not have information about the perspective. By doing some reference measurements we can obtain the spatial information about the scene observed by the camera [5]. Scene configurator 2.5D allows obtaining 3D information from 2D image captured by a single camera by performing the following procedure when setting up the system and using it at a later stage image processing. Scene configurator 2.5D Configurator 2.5D allows the model to determine the perspective of the observed scene from a series of images. It is necessary to prepare and use a pattern in the form as shown in Figure 1.Pictures should be taken so that the lower bar pattern was on the floor and the top was at right angle to the floor. Lower bar should also be at right angle to the axis focal length of the lens. Pattern should be visible on image and pattern should not be photographed directly from the front or above, because these situations do not allow reference measurements. The example picture with a pattern is shown in Figure 2. To run the program the MATLAB Compiler Runtime (MCR ) version R2012b (32-bit) must be first installed, you can download the appropriate version for your operating system from: http://www.mathworks.com/products/compiler/mcr/index.htmlWhen the scene configurator is run, the main window shown in Figure 3 is displayed. Now the real image must be loaded to analyse it. For that purpose the user must click on the button and load the file from the hard drive. On the right side there are the following buttons located: &#9679; Button top, &#9679; Button left down, &#9679; Button middle down, &#9679; Button ... więcej»

Fotodioda RGB w niskiej temperaturze (Jakub Pająkowski)
Temperatura pracy podzespołów elektronicznych poniżej 200K nie jest typowym zakresem temperatur przewidzianym przez ich producentów. Jednak wiele urządzeń znajduje zastosowanie w niższych przedziałach temperaturowych, na przykład w badaniach z dziedziny ciała stałego, badaniach kosmicznych, w medycynie, krioterapii, czy w przemyśle spożywczym. Prowadzone wcześniej badania wykazały, że fotodiody zachowują swoje właściwości detekcyjne w niskich temperaturach [1, 9], a wzmacniacze operacyjne wykonane w technologii BiFET zachowują swoje właściwości wzmacniające w temperaturze wrzenia ciekłego azotu (77 K). Przebadano wzmacniacze operacyjne typu LF411 i TL081: ich wzmocnienia różnicowe KUR przy temperaturze 77K równe są odpowiednio 80dB i 90dB [2]. Wybrane typy wzmacniaczy operacyjnych CMOS są zdolne do pracy w temperaturze poniżej 50 K (przykładowo wzmacniacz typu LMC6041: w temperaturze 45 K jego wzmocnienie różnicowe KUR = 100dB) [3]. Wzmacniacz operacyjny wykonany w technologii CMOS typu AD8594 wzmacnia nawet w temperaturze wrzenia ciekłego helu (4,2 K) - jego wzmocnienie różnicowe KUR = 60 dB [4]. Również diody elektroluminescencyjne zachowują zdolności emisyjne przy 77 K [5]. W zakresie temperatury od 77 K do 300K przetestowano diody: czerwoną typu... więcej»

Synteza 128-bitowych komparatorów hierarchicznych w strukturach CPLD/FPGA (MAREK GRUSZEWSKI)
Komparator binarny (nazywany dalej komparatorem) należy do układów kombinacyjnych i służy do porównywania wartości dwóch słów binarnych, np. A i B. Komparator tradycyjny (rys. 1) ma trzy wyjścia i realizuje następujące funkcje: G (A > B), E (A = B), L (A < B), gdzie A = at ... a1 oraz B = bt ... b1.Komparatory należą do podstawowych komponentów systemów cyfrowych. Są kluczowymi elementami w szerokim zakresie zastosowań, tj.: w procesach obliczeniowych (grafika oraz przetwarzanie obrazów/sygnałów [1]), w układach testujących (analizatory sygnatur, wbudowane układy samotestujące [2]), w procesach poszukiwania i sortowania danych [3], jako komponenty w procesorach ogólnego przeznaczenia: pamięci asocjacyjne (skojarzeniowe), bufory TLB (Translation Lookaside Buffer), bufory BTB (Branh Target Buffer) i wiele innych bloków porównywania argumentów w CP U [4]. Rozbudowany układ cyfrowy na ogół przedstawiany jest jako zespół standardowych i/lub oryginalnych bloków funkcjonalnych. Do takich bloków funkcjonalnych należą m.in. komparatory. Najbardziej rozpowszechnioną dzisiaj bazą elementową techniki cyfrowej są złożone programowalne układy logiczne (CP LD) oraz bezpośrednio programowalne macierze bramek (FPGA) [5]. W technice obliczeniowej zauważa się stałą tendencję do zwiększania wielkości słów binarnych. Długość słów rośnie szczególnie szybko w systemach telekomunikacji, a także w urządzeniach przetwarzania i przesyłania informacji. Przy projektowaniu systemów cyfrowych pojawia się więc potrzeba opracowania efektywnych metod syntezy komparatorów w strukturach CP LD/FPGA, pracujących ze słowami binarnymi o dużych rozmiarach. Przy syntezie komparatorów wystarczy zrealizować tylko dwie funkcje G i E. Funkcja L zawsze może być określona na podstawie dwóch pierwszych na podstawie zależności: (1) Istnieje wiele rodzajów komparatorów binarnych oraz metod ich syntezy. W ostatnich latach zwraca się dużą uwagę na projektowanie komp... więcej»

Przepływomierz kolanowy do pomiaru strumieni przepływu gazu (Michał Kamiński, Artur Andruszkiewicz)
Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Człowiek i organizacje w wirtualnym środowisku informacji (Zbigniew Kierzkowski)
Procesy przemian cywilizacyjnych w kształtującym się społeczeństwie informacyjnym zmierzają w kierunku tworzenia różnorodnych struktur wirtualnej organizacji działań (WOD). Problematykę WOD, jako nowy przedmiot badań naukowych i realizacji zadań badawczo-rozwojowych i edukacyjnych, podjęto w Polsce przed 20 laty. Od początku badania te są prowadzone przy współpracy wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych, konferencji krajowych i międzynarodowych. Problematyka WOD od początku wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP). Problematyka wirtualnej organizacji działań (WOD), nowy przedmiot badań naukowych i realizacji zadań badawczorozwojowych, podjęto w Polsce w latach 1994/1996. Są one przedmiotem współdziałania wielu ośrodków akademickich oraz specjalistów i prezentowane na forum systematycznie organizowanych krajowych Seminariów problemowych. Od początku tematyka WOD wpisuje się w przedsięwzięcia prowadzone przez Towarzystwo Naukowe Prakseologii (TNP) i jest ściśle powiązana z pracami prowadzonymi na forum międzynarodowym przez Komitet Danych dla Nauki i Technologii [2] (CODATA - Committee on Data for Science and Technology of the International Council for Science). Dodatkowo od 2003 roku problematyka WOD prezentowana jest podczas krajowych Konferencji Okrągłego Stołu (KOS): Polska w drodze do społeczeństwa informacyjnego [3], które organizowane są corocznie, jako debata środowisk polityki, gospodarki i nauki przez Zarząd Główny SEP - Stowarzyszenie Elektryków Polskich, który jest głównym koordynatorem w Polsce obchodów ŚDSI - Światowego Dnia Społeczeństwa Informacyjnego (17 maja). Badania początkowe - do roku 2003/2004 - w obszarach tematycznych WOD poświęcone są analizie procesów przemian strukturalnych społeczeństwa informacyjnego oraz poszukiwaniu głównych czynników kształtowania społecz... więcej»

Projekt wbudowanej dwupasmowej anteny GSM
Artykuł prezentuje łączne zastosowanie oprogramowania CST MICROWAVE STUDIO &#174; (CST MWS), Antenna Magus i Optenni Lab w celu poprawienia konstrukcji urządzenia monitorującego pracującego w standardzie GSM. Zadanie polegało na zastąpieniu typowej obudowanej anteny katalogowej zintegrowaną anteną drukowaną w celu zmniejszenia kosztów produkcji i kosztów materiałowych. Nowa antena musiała pracować w standardowych pasmach GSM 900 MHz i 1800 MHz oraz musiała korzystać z istniejącego podłoża i warstw metalizacji, bez zmiany wielkości płytki i układu ścieżek poza obszarem samej anteny. Nowa, zintegrowana antena została zaprojektowana z wykorzystaniem aplikacji Antenna Magus w połączeniu z oprogramowaniem CST MWS co pozwoliło uniknąć niepożądanych sprzężeń i zapewnić pracę anteny w żądanych pasmach częstotliwości. Program Optenni Lab został wykorzystany do zaprojektowania układu dopasowującego. Do czego owcy potrzebna antena? Firma "ETSE electronics" z miasta Stellenbosch w RPA to ekspert w zakresie urządzeń i systemów do łączności w pasmach mikrofalowych i RF. Konstruktorzy z ETSE opracowali produkt nazwany "Celmax collar". Jest to urządzenie śledzące systemu GPS noszone przez wybrane owce wchodzące w skład większego stada. W przypadku próby kradzieży lub innego niebezpieczeństwa spłoszone owce zaczynają biec. Urządzenie wykrywa przyspieszenie i powiadamia hodowcę przez wiadomość SMS wysyłaną przez lokalną sieć komórkową GSM. Na rysunku 2 pokazano pierwotną konstrukcję urządzenia z typową anteną GSM zamontowaną na płytce PCB i połączoną przez przepust z układem scalonym RF zamontowanym na drugiej stronie płytki. Częstotliwości pracy urządzenia to standardowe pasma GSM 900 (890 MHz - 960 MHz) i GSM 1800 (1710 MHz - 1879.8 MHz). Antenna Magus i CST MWS zostały użyte do zastąpienia pierwotnej anteny drukowaną anteną dwupasmową, bez zmiany układu ścieżek i wymiarów PCB. Podłoże wykonane jest z 4 warstw laminatu FR4 o przenikalno... więcej»

Using the hyperbolic algebra for efficient analysis of nonlinear switched dynamical circuits (Zdzisław Trzaska )
Nonlinear dynamical systems of various natures (electrical, chemical, biological, mechanical, astrophysical, etc.) quite often exhibit complex dynamical behavior and undergo bifurcations when one or more parameters change. Such complex behavior requires new mathematical tools that better describe properties of the dynamic processes and systems [1-3]. Overall, it is known that the non-smooth signals can make investigations quite drudging. Analyses of oscillations with essentially unharmonic, non-smooth or maybe discontinuous time shapes are especially diffcult. This is caused by the fact that the methods for nonlinear dynamic systems were originally developed within the paradigm of smooth oscillations based on the classical theory of differential equations, usually avoiding non-differentiable and discontinuous functions. Over the last three decades, a general interest in developing tools to incorporate the non-smooth and discontinuous signals has grown significantly. Presently, many theoretical and applied areas of dynamical systems and processes cover high-energy phenomena accompanied by highly non-linear spatio-temporal behavior, making the classical smooth methods inefficient in almost all cases [4-6]. The main purpose of this paper is to show a uniform basis suitable for analyses of non-harmonic shape oscillations resulting from the non-smooth or discontinuous excitations. The tool presented in this work employs a non-smooth approach as an efficient mean to analyze nonlinear dynamical switching circuits. The approach is built on the idea of non-smooth time transformation (NSTT) proposed originally for nonlinear and smooth models [7-9]. The NSTT is based on the explicit links between the hyperbolic algebra and impact dynamics, an approach analogous to the conventional complex number analysis and harmonic oscillatory processes [10-13]. Therefore, it is expected that the hyperbolic algebra and hyperbolic numbers can overcom... więcej»

IFA 2014 - Światowa Konferencja Prasowa
W dniach 24-27 kwietnia w miejscowości Belek na Riwierze Tureckiej obyła się konferencja prasowa przezentująca wrześniową wystawę IFA w Berlinie. Wszyscy zdają sobie sprawę, że mamy do czynienia z szybko zmieniającymi się rynkami. Te zmiany to nie tylko nowe produkty, ale również nowi gracze rynkowi oraz nowe zasady. Hans-Joachim Kamp, przewodniczący rady nadzorczej firmy GFU (organizatora targów IFA) nazwał organizowaną aktualnie wystawę IFA 2014 (5-12 września) jako IFA Consumer Electronics 4,0 (CE 4.0). Aby wyjaśnić, co oznacza CE 4.0 oznacza należy cofnąć się trochę w czasie. Termin CE 1.0 został wprowadzony przez tradycyjne firmy branży elektroniki użytkowej. Rynki były zdominowane przez lokalnych producentów. Produkty charakteryzowały się stosowaniem techniki analogowej i wynikał z tego powolny cykl wprowadzania innowacji. Kolejnym krokiem było rozpoczęcie globalizacji w branży. Lokalne - europejskie marki - musiały stawić czoła silnej konkurencji ze strony podmiotów międzynarodowych w tej dziedzinie, wśród których prym wiodła Japonia, a później zaczęła dorów... więcej»

Elektrochemiczny czujnik samopolaryzujący do naskórnego pomiaru prężności tlenu w krwi tętniczej (Tadeusz Pałko, Włodzimierz Łukasik, Józef Przytulski)
Prężność tlenu pO2 we krwi tętniczej jest ważnym parametrem obrazującym ilość tlenu rozpuszczonego w osoczu, wyrażonym w jednostkach ciśnienia oddziaływującego na osocze. W warunkach prawidłowych w krwi tętniczej pO2 &#8776; 80 mm Hg (10,6 kPa), a w powietrzu atmosferycznym pO2 &#8776; 154 mm Hg (21 kPa). Parametr ten umożliwia wykrycie zarówno niedotlenienia krwi tętniczej jak i groźbę wystąpienia zatrucia tlenowego, co może ujawnić się w trakcie leczenia w komorze hiperbarycznej lub leczenia czystym tlenem. Przedmiotem niniejszego artykułu jest elektrochemiczny czujnik samopolaryzujący do nieinwazyjnego naskórnego pomiaru prężności tlenu we krwi tętniczej oparty na ogniwie galwanicznym zwanym też komor-pomiarową Mackeretha oraz wyposażony w układ termoregulacji do grzania i termostatowania badanego miejsca obszaru tkankowego skóry i wnętrza czujnika, aby zapewnić wystarczająco dobrą dyfuzję tlenu z krwi w naczyniach kapilarnych do komory pomiarowej czujnika. Dotychczas znane i stosowane czujniki do nieinwazyjnego pomiaru prężności tlenu pO2 we krwi tętniczej metodą naskórną działają na zasadzie opisanej przez Clarka w artykule [1] odnoszącym się do pomiaru pO2 bezpośrednio w krwi metodą in vitro. Na przełomie lat 1970-tych i 1980-tych i później, zasada ta została zmodyfikowana, udoskonalona i rozszerzona do nieinwazyjnych pomiarów naskórnych pO2 w krwi tętniczej. Główna modyfikacja czujników naskórnych w stosunku do mierzących pO2 bezpośrednio w krwi polegała na wprowadzeniu układu termoregulacji do podgrzewania obszaru pomiarowego. W czujnikach pO2 opartych na zasadzie Clarka wykorzystuje się zjawiska oksyredukcyjne zachodzące na powierzchni, odpowiednio dobranych i spolaryzowanych z zewnętrznego źródła napięcia, elektrod zanurzonych w odpowiednim wodnym elektrolicie, najczęściej KCl do którego dyfunduje tlen przez membranę o właściwościach hydrofobowych tzn. nieprzepuszczającą cząsteczek wody z badanego środowiska. Na... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Zagadnienia związane z przekładem zaimków osobowych w systemie tłumaczenia komputerowego typu Human-Aided Machine Translation (Zbigniew Handzel, Mirosław Gajer, Joanna Dybiec-Gajer )
Przekład komputerowy już od dobrych kilkudziesięciu lat pozostaje w kręgu zainteresowań interdyscyplinarnych zespołów badawczych złożonych z naukowców reprezentujących różne dziedziny wiedzy, poczynając od teoretyków informacji, poprzez specjalistów od algorytmów, programistów, a kończąc na językoznawcach, przekładoznawcach i filologach. Niestety, budowa systemu komputerowego przekładu, który byłby w stanie wyeliminować całkowicie człowieka i tym samym sprawić, że zawód tłumacza stanie się w przyszłości zbędny, wciąż pozostaje swego rodzaju niedoścignionym ideałem [1]. Obecnie systemy komputerowego przekładu są realizowane przede wszystkim jako systemy całkowicie automatyczne, tzn. takie, na wejście których użytkownik zadaje gotowy tekst zapisany w języku wyjściowym, a na ich wyjściu oczekuje pojawienia się przekładu tego tekstu na wybrany język docelowy. Tego rodzaju w pełni automatyczny przekład jest wykonywany przez komputer najczęściej z wykorzystaniem metod regułowych bądź statystycznych, przy czym znane są także rozwiązania hybrydowe, stanowiące różnego rodzaju połączenia wybranych metod [2]. Innym, w opinii autorów, niezwykle obiecującym kierunkiem badań w dziedzinie komputerowego przekładu jest rozwijanie systemów komputerowego przekładu wspomaganych przez człowieka, które w angielskojęzycznej literaturze przedmiotu określane są terminem Human-Aided Machine Translation. W przypadku tego rodzaju rozwiązań użytkownik systemu przez cały czas jego działania w sposób aktywny uczestniczy w procesie przekładu, rozwikłując wszelkiego typu wieloznaczności języka naturalnego (leksykalne i składniowe), które stanowią podstawową przeszkodę stojącą na drodze do budowy w pełni użytecznych systemów komputerowego przekładu [3]. Przedmiotem niniejszego artykułu jest rozwijany obecnie przez autorów system komputerowego przekładu typu Human-Aided Machine Translation. System ten pomyślany jest jako system wielojęzyczny, który jest otw... więcej»

Układy do kontroli połączeń elektrod z pacjentem w badaniach elektrodiagnostycznych (PIOTR KARDYŚ, MAREK PORTALSKI)
W jednym z artykułów prezentowanych na łamach "Elektroniki" [7] w cyklu poświęconym bezprzewodowym systemom telemetrycznym, przedstawiliśmy moduł pomiarowy EE G/EKG przeznaczony do badań zdalnych. Moduł ten, podobnie jak inne urządzenia diagnostyczne korzystające z elektrod pomiarowych przylepianych bądź przykładanych do ciała osoby badanej, wymaga utrzymania rezystancji przejściowych, a ściślej impedancji na styku elektroda/ elektrody-tkanka w pewnych z góry ustalonych granicach, celem zapewnienia prawidłowej pracy urządzenia i uzyskania niezafałszowanych wyników pomiaru. W przypadku badań elektroencefalograficznych (EE G), rezystancje przejściowe elektrod przykładanych do głowy pacjenta nie powinny przekraczać 5 k&#937; [10], w przeciwnym razie do obwodów wejściowych wzmacniacza dotarłyby zakłócenia indukowane w otoczeniu pacjenta (przede wszystkim z sieci energetycznej), jak również drastycznie wzrósłby poziom szumów. Stosuje się zatem specjalne pasty przewodzące, poprawiające kontakt elektrod ze skórą. W badaniach elektrokardiograficznych (EKG) dopuszcza się nieco większe wartości rezystancji - do 10 k&#937; w pomiarach metodą Holtera [1]. Istnieją jednak badania, w których rezystancje przejściowe elektrod przyjmują znacznie większe wartości. Ciekawym przykładem może być badanie za pomocą wariografu, powszechnie, choć niezupełnie słusznie nazywanego "wykrywaczem kłamstw" [6], w którym na palce jednej ręki (zwykle wskazujący i środkowy) zakłada się elektrody suche, pozbawione pasty przewodzącej czy żelu, gdyż w tym wypadku potliwość ciała ma kluczowe dla wyników znaczenie. Wprowadzenie substancji przewodzącej między powierzchnię czynną elektrody a skórę uniemożliwiłoby monitorowanie tego parametru. W takich badaniach rezystancje przejściowe elektrod sięgają dziesiątek, a nawet setek kiloomów, w zależności od wilgotności naskórka i pośrednio od stanu emocjonalnego osoby badanej oraz jej reakcji (ang. GSR, galvanic skin res... więcej»

Analiza technik biometrycznych do uwierzytelniania osób (Mirosława Plucińska, Jarosław Wójtowicz)
Elektronizacja administracji (e-administracja), upowszechnienie transakcji i usług internetowych (e-usługi) wymagają jednoznacznej weryfikacji osoby korzystającej z tych udogodnień. Wydaje się, że takie jednoznaczne potwierdzenie tożsamości osoby może zapewnić biometria. W związku z tym należy rozpatrzyć dostępne techniki biometryczne, przyjrzeć się im i wybrać te, które będą najbardziej przydatne do uwierzytelniania. Ogólny przegląd technik biometrycznych istniejących i rozwijanych obecnie na rynku z krótkim opisem metody działania i najważniejszymi wadami i zaletami został umieszczony w artykule pt.: "Krótki przegląd technik biometrycznych do rozpoznawania osób" autorstwa M. Plucińskiej i w związku z tym w obecnym artykule nie będzie przypomnienia technik jakie są obecnie na rynku, a jedynie ich porównanie. Najważniejsze cechy technik biometrycznych Analizę i porównywanie technik biometrycznych można przeprowadzić w różnych aspektach. Do najważniejszych cech charakteryzujących poszczególne techniki biometryczne opisanych parametrami urządzeń biometrycznych należą - wiarygodność techniki, akceptowalność społeczna i łatwość użycia, przepustowość określona czasem weryfikacji, wielkość wzorca, wielkość urządzenia, cena i inne. Akceptowalność społeczna Jedną z ważnych cech dotyczących technik biometrycznych jest akceptowalność społeczna biometrii. Strach przed przyłożeniem palca czy oka do urządzenia skanującego oraz obawa przed zostawianiem swoich danych biometrycznych są ciągle duże, ale ogólne podejście społeczeństwa do biometrii zmienia się. Z danych przytoczonych na Konferencji Naukowej Biometria 2010 (organizator Instytut Maszyn Matematycznych, Warszawa) w prezentacji prof. A. Koziczak z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy, aż 77% ankietowanych studentów Wydziału Prawa i Administracji w wieku od 22 do 30 lat było za stosowaniem cech biometrycznych do szybkiego sprawdzenia tożsamości. Ankietowani godzili się na ... więcej»

On designing a Nyquist fir filter of fractional group delay and phase delay (Ewa Hermanowicz, Miroslaw Rojewski )
Nyquist filters are crucial components in data communications [1]. Their traditional attributes are governed by the fulfilment of Nyquist condition. We wish to design a filter such that its impulse response satisfies the Nyquist first criterion [7] (1) where L is an positive integer, preferably odd, called the oversampling ratio. In digital (isochronous) signalling it indicates the number of discrete signal samples (Sa) per symbol (repetition) interval. Formula (2) expresses the Nyquist criterion in the normalized (fraction of sampling rate) frequency domain f, (2) A design of the frequency response H(f ) that satisfies the Nyquist conditions (1) and (2) is generally too restrictive and may not lead to a satisfactory filter. Moreover, the Nyquist filter conditions should be satisfied as closely as possible to minimize interference between successive data symbols (ISI) when channel distortion is absent. Also it is desirable to keep the length of the filter as small as possible to minimize the implementation cost. The goal of this paper is to formulate a novel concept for the Nyquist filter that has the additional ability to introduce a fractional sample delay otherwise referred to as subsample delay. Such a special filter has not been considered yet [2], [3], [4], [5], [6]. Hitherto in the literature the Nyquist filter and the fractional delay = - &#177; = = - = otherwise arbitrary 0, ( 1) / 2 , 1, 2, 3, 1, ( 1) / 2 [ ] n N mL m L n N h n ... więcej»

Adaptive acoustic crosstalk cancellation in mobile computer device (Kuba Łopatka, Andrzej Czyżewski)
Recently one of the main paradigms in audio engineering is enhancement of spatial perception of sound. In that field, Virtual Acoustic Space (VAS) technique emerges. It is based on creating an illusion of 3D audio experience by exploiting the physical foundations of spatial hearing. The well-known Head- Related Transfer Functions (HRT Fs) are often used to that end [1]. While the creation of virtual sound sources is relatively easy to achieve using headphones, obtaining a VAS using loudspeakers remains a challenge. The task is particularly difficult in mobile conditions, while using a mobile computer as a playback device. We focus on investigating the practical possibility of creating a virtual sound experience using a typical mobile computer. The examined method relies on the acoustic crosstalk cancellation algorithm. The acoustic crosstalk cancellation algorithm (often denoted XTC ) is a known tool used to eliminate the signals transmitted from the left loudspeaker to the right ear (and vice versa) in freefield listening. The goal is to enable clear transmission of signals to the ipsilateral ears, thus providing a similar auditory experience to headphone listening. It is commonly referred to as binaural audio through loudspeakers (BAL) [2]. The benefit of such an effect is advanced control of the stereo image. Ideally, spatial cues encoded in HRT Fs can be used to create virtual sound sources outside the loudspeaker area. This leads to widening of the stereo image and an enhanced audio experience. Meanwhile, the BAL effect achieved with XTC algorithm is not perfect. The cancellation of signals transmitted to the contralateral ears is achieved only to a limited area - the sweet spot. Outside the sweet spot the crosstalk cancellation fails and perceived sound is degraded due to spectral coloration. Due to the physical constraints of the algorithm even a slight displacement of the head can deteriorate the XTC efficiency. In ou... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Estymacja przepływności bitowej ramek typu P w kodowaniu wideo (Michał Wieczorek, Grzegorz Pastuszak)
Nowoczesne systemy kodowania wideo cechują się wysoką sprawnością działania. Dzięki zastosowaniu złożonych algorytmów, pozwalają uzyskać stosunkowo niską przepływność bitową wyjściowych strumieni wideo przy zachowaniu ich wysokich jakości. Jednocześnie nośniki danych jak i kanały transmisyjne cechują się coraz większą pojemnością i przepływnością. Istotnym problemem jest efektywne wykorzystanie dostępnego pasma transmisyjnego oraz pojemności pamięci a nie tylko minimalizacja rozmiaru czy przepływności materiału wideo. Dlatego też duży nacisk kładziony jest obecnie na sprawne algorytmy kontroli stopnia kompresji sekwencji wideo. Ich podstawowym zadaniem jest taki dobór parametrów kodowania, aby wyjściowy strumień danych efektywnie wykorzystywał dostępne zasoby transmisyjne. W najnowszych pozycjach literaturowych prezentowanych jest kilka bardzo dobrych algorytmów kontroli stopnia kompresji. Większość z nich nie nadają się jednak do zastosowania w koderach pracujących w czasie rzeczywistym. Publikacji opisujących rozwiązania umożliwiające efektywną kontrolę stopnia kompresji w systemach kodowania wideo pracujących z małym opóźnieniem jest niewiele. Jakość tych, które można znaleźć, pozostawia wiele do życzenia. Przykładowo w [1] przedstawiono sprzętowe rozwiązanie dość efektywne z punktu widzenia stabilności przepływności bitowej. Pominięto jednak jeden z czynników równania wyznaczania wartości parametru kwantyzacji QP (ang. quantization parameter), przez co nie jest możliwa implementacja opisanego algorytmu. Zagadnienie efektywnej kontroli stopnia kompresji w czasie rzeczywistym jest zatem wciąż otwarte na nowe rozwiązania. Ogólny schemat działania algorytmów kontroli stopnia kompresji Celem algorytmów kontroli stopnia kompresji jest dobór parametrów kodowania w taki sposób, aby sprostać narzuconym ograniczeniom. Te mogą dotyczyć określonej jakości bądź przepływności bitowej kodowanej sekwencji wideo. Pierwszym krokiem każd... więcej»

Implementacje FPGA modułów kwantyzacji i dekwantyzacji w sprzętowych koderach wideo (Grzegorz Pastuszak)
Standard H.264/AVC [1] jest powszechnie używany w różnych aplikacjach komunikacyjnych oraz w rejestracji wideo. W stosunku do poprzednich standardów pozwala on na redukcję budżetu bitowego do 50% przy zachowaniu podobnej jakości zdekodowanego materiału wideo. Ostatnie prace w dziedzinie kompresji wizyjnej doprowadziły do opracowania kolejnego standardu nazwanego H.265/HEVC [2]. Efektywność kompresji uzyskiwana przy zastosowaniu nowych technik jest zwiększona nawet dwukrotnie w stosunku do standardu H.264/AVC. Ulepszenia algorytmu dotyczyły wielu modułów i sposobu organizacji danych. Jednakże moduły kwantyzacji i dekwantyzacji są w obu standardach podobne. Stąd techniki projektowania opracowane dla standardu H.264/ AVC mogą być z powodzeniem przeniesione do H.265/HEVC.Rysunek 1 przedstawia diagram blokowy kodera wideo z wyróżnionymi modułami kwantyzacji i dekwantyzacji. Współczynniki transformaty są kwantowane, aby usunąć mniej istotne informacje przed zakodowaniem entropijnym. Dekwantyzacja jest konieczna do rekonstrukcji treści wideo dla kolejnych bloków, makrobloków i obrazów kodowanych zarówno w trybie predykcji wewnątrzobrazowej (INTRA) i międzyobrazowej (INTER). Analiza kosztu bitowego i zniekształceń (RD) używana do wyboru trybu umożliwia uzyskanie dużej efektywności kompresji. Z drugiej strony koszt obliczeniowy zwiększa się, ponieważ wiele trybów musi być przetworzonych w pętli rekonstrukcji zawierającej kwantyzację i dekwantyzację. By uzyskać wydajność czasu rzeczywistego koder sprzętowy powinien wykorzystać pętlę rekonstrukcji o dużej przepustowości. W szczególności liczba modułów kwantyzacji i dekwantyzacji musi być zwiększona celem przetwarzania równoległego. W konsekwencji ich udział w potrzebnych zasobach sprzętowych staje się znaczący. W literaturze opisano wiele architektur kwantyzacji i dekwantyzacji [3-17]. Większość z nich stosuje bezpośrednie mapowanie kolejnych operacji na kaskadę złożoną z układu mnożące... więcej»

Pokładowy rejestrator niebezpiecznych zdarzeń w ruchu drogowym (Stanisław Konatowski, Maciej Gołgowski)
Pokładowy rejestrator jest urządzeniem zapisującym wybrane i ważne dane charakteryzujące stan pojazdu, w celu określenia okoliczności zaistniałego niebezpiecznego zdarzenia (kolizji). Przy użyciu tych informacji określana jest przyczyna, przebieg zdarzenia, a także mogą być podjęte działania prewencyjne eliminujące podobne sytuacje. Analiza zarejestrowanych danych może być pomocna także w poprawie infrastruktury drogowej, konstrukcji pojazdów oraz w projektowaniu systemów wspierających kierowcę. Stąd każde pokładowe urządzenie rejestrujące ma wpływ na poprawę poziomu bezpieczeństwa w ruchu drogowym [1-2, 5-6]. Aktualnie, w przypadku niebezpiecznych zdarzeń, można odtworzyć dane z przebiegu wypadku bez wprowadzania dodatkowych urządzeń elektronicznych odpowiedzialnych za sterowanie układami pojazdu. Jednakże proces ten bywa często mało wiarygodny. W pojazdach samochodowych, w których powszechnie stosowane są różne układy elektroniczne, nie ma technicznych przeszkód, aby dodatkowo instalować rejestratory. Na rynku motoryzacyjnym dostępne są urządzenia o działaniu podobnym do lotniczych rejestratorów lotu [7]. Zadaniem ich jest rejestracja wielkości charakteryzujących ruch pojazdu, aktywność kierowcy oraz stanu otoczenia. Artykuł zawiera projekt systemu rejestrującego niebezpieczne zdarzenia drogowe. Rodzaje pokładowych urządzeń rejestrujących W Unii Europejskiej pokładowe rejestratory parametrów funkcjonują pod nazwą EDR (Event Data Recorder) lub UDS (Unfall Daten Speicher), a na terenie USA jako ADR (Accident Data Recorder) [2, 5]. Charakterystyka standardów rejestracji Urządzenia produkcji amerykańskiej - ADR, działające w oparciu o algorytmy opracowane przez National Highway Traffic Safety Administration, kładą nacisk na bezpieczeństwo nie tylko kierowcy ale również pasażerów. Standardy europejskie, stosowane w odpowiednikach urządzeń ADR, są jednak bardziej rygorystyczne w zakresie inicjowania zapisu, czasu trwania zapis... więcej»

Bezprzewodowy detektor upadków (Bartłomiej Wójtowicz, Andrzej Dobrowolski)
Powszechnym, a zarazem poważnym problemem współczesnego świata, jest proces starzenia się społeczeństw, który wywołuje konsekwencje, m.in. w obszarze społecznym, psychologicznym, ekonomicznym, a także politycznym [12]. Nie bez znaczenia staje się więc zapewnienie właściwej opieki zdrowotnej najbardziej narażonej na problemy grupie, tj. ludziom w wieku powyżej 65 lat [2, 16]. Na przykładzie Polski, w roku 2000 grupa ta stanowiła 12,3% ogółu społeczeństwa, zaś prognozy Głównego Urzędu Statystycznego wskazują, że w roku 2020 grupa ta powiększy swoją liczebność niemal dwukrotnie [12, 13]. Wraz ze starzeniem się człowieka postępują procesy fizjologiczne charakteryzujące się zmianami w układzie nerwowym, które skutkują spowolnieniem procesów myślowych, spadkiem napięcia mięśniowego, zaburzeniem równowagi, a także osłabieniem odruchów [12]. W rezultacie tych zmian zwiększa się ryzyko upadków oraz spowodowanych nimi urazów. Stanowi to nie tylko problem zdrowotny ludzi w wieku geriatrycznym, ale jest to także poważny problem w skali społeczno-ekonomicznej kraju. Na upadek narażone jest aż 33% społeczeństwa w wieku powyżej 65. roku życia i odsetek ten wzrasta wraz z wiekiem [1, 2, 16]. Według [2] w roku 2002 upadki doprowadziły do zgonu aż 391 tysięcy ludzi, a 25% tych zdarzeń dotyczyła krajów o wysokich dochodach. Badania wskazują, że ponad połowa tych zdarzeń prowadzi do hospitalizacji i kończy się ograniczeniem sprawności ruchowej, a w najgorszych przypadkach skutkuje śmiercią człowieka [2, 9, 10, 14]. Doraźna pomoc medyczna niezbędna jest w 10&#8209;15% upadków, z czego aż 50% dotyczy ludzi powyżej 65-tego roku życia. Dodatkowo upadek może skutkować wyzwoleniem zmian psychicznych (stany lękowe, depresje, ograniczenie aktywności ruchowej [12]), definiowanych w [4] jako syndrom poupadkowy. W celu zapobiegania negatywnym skutkom upadku istotne staje się opracowanie mechanizmów oraz rozwiązań pozwalających na skrócenie czasu pomiędzy ... więcej»

Możliwości realizacji usług telekomunikacyjnych w morskim systemie INMARSAT Fleet77 (Jerzy Czajkowski )
Morski system INMARSAT Fleet77 jest przeznaczony do w pełni zintegrowanego satelitarnego systemu radiokomunikacyjnego umożliwiającego korzystanie w żegludze morskiej z najnowocześniejszych zdobyczy technik informacyjnych, w tym transmi-sji danych i poczty elektronicznej. Zapewnia przy tym realizację łączności dla alarmowania i potrzeb bezpieczeństwa statków oraz żeglugi. W [5] autor przedstawił ogólną strukturę systemu INMARSAT Fleet77, natomiast w niniejszym artykule scharakteryzowano możliwości realizacji usług telekomunikacyjnych w tym systemie. Celowym jest jednak odniesienie do artykułu autora w Elektronice 11/2012 [4] gdzie omawiając rozwój bardzo ważnego dla systemu GMDSS - systemu INMARSAT opisano rozwój członu satelitarnego tworząc satelity czwartej generacji. Otóż satelity te umożliwiają pracę z szerokimi wiązkami regionalnymi (wide beam) oraz wąskimi wiązkami punktowymi (spot beam). Usytuowanie trzech satelitów na orbicie geostacjonarnej umożliwia następujące pokrycie kuli ziemskiej:Rejony pokrycia satelitarnego I-4 - Americas - pokrycie Oceanu Wielkiego i Atlantyku - 098°W; I-4 - EMEA - (Europe, Middle East, Africa) - pokrycie Oceanu Atlantyckiego i Indyjskiego - 025°E; I-4 - Asia-Pacific - pokrycie Oceanu Indyjskiego i Wielkiego - 143,5°E. Na rysunku 1 przedstawiono pokrycie radiowe wiązkami punktowymi satelitów INMARSAT I-4, a na rys. 2 satelitę czwartej generacji. W tabeli przedstawiono dane techniczno-operacyjne satelitów I-4. Każdy satelita I-4 może generować 19 szerokich wiązek regionalnych oraz 254 wąskie wiązki punktowe. Wiązki te mogą być szeroko rekonfigurowane i mogą koncentrować się w dowolnym miejscu na Ziemi tak, aby zapewnić dodatkową przepustowość tam, gdzie jest to wymagane. Satelita I-4 w porównaniu ze swoim poprzednikiem I-3 dysponuje 60-krotnie większą pojemnością dzięki antenom Rys. 1. Pokrycie wiązkami punktowymi satelitów INMARSAT-4 Rys. 2. Satelita czwartej generacji I-4 systemu IN... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Potokowa linia magnetronowa do depozycji cienkich warstw systemów fotowoltaicznych (Konstanty W. Marszałek, Wiesław Doros&#8201;)
Budowa potokowych linii sputeringowych jest złożonym zadaniem inżynierskim [1] i poważnym wyzwaniem finansowym. Toteż w kraju znajdują się dwie duże instalacje potokowe zbudowane przez koncerny szklarskie tj. Saint Gobain w Strzemieszycach i Guardian w Częstochowie. Pierwszą instalacją potokową zainstalowaną w przemyśle była oddana w 1996 roku potokowa linia zbudowana przez zespół prof. Leja (śp) i dr K. Marszałek dla firmy DAGlass z Rzeszowa [2-4]. W niniejszej pracy przedstawiono zmodernizowaną wersję tej pierwszej konstrukcji. Budowa była możliwa dzięki wsparciu finansowemu pochodzącemu ze środków pomocowych Unii Europejskiej. Zainstalowane w linii magnetrony są trzy razy mniejsze niż używane w największych instalacjach [5]. Powoduje to z jednej strony zmniejszenie gabarytów pokrywanych podłoży, natomiast stwarza możliwość prowadzenia prac badawczo-rozwojowych w skali przemysłowej [6, 7]. Bieżąco prowadzone są prace nad wdrożeniem depozycji szeregu systemów cienkowarstwowych stosowanych w produkcji cienkowarstwowych paneli fotowoltaicznych. Prace te są prowadzone w ramach współpracy z Akademią Górniczo-Hutniczą w Krakowie oraz KGHM SA. Budowa linii potokowej Prezentowana instalacja składa się z pięciu ... więcej»

Metrologiczne aspekty toru pomiarowego spektrofotometru z fotopowielaczem (Zbigniew Krawiecki)
W metodach pomiarowych, w których sygnałem użytecznym jest promieniowanie optyczne, stosuje się specjalistyczną aparaturę, taką jak np.: spektrometry i spektrofotometry. Przyrządy te wykorzystuje się do pomiaru absorbancji, transmitancji, reflektancji, w badaniach jakościowych oraz ilościowych zawartości substancji, do wyznaczania właściwości optycznych materiałów [1-4]. Przykłady te można mnożyć, podając zastosowania z zakresu medycyny, przemysłu, nauki i wielu innych dziedzin. Pomiar natężenia promieniowania optycznego przechodzącego przez ośrodek lub odbijającego się od jego powierzchni jest zadaniem stosunkowo trudnym. Nierzadko użytkownicy przyrządów są przekonani, że pomiary z sygnałem optycznym należą do łatwych, a sprzęt "rozwiązuje" większość problemów metrologicznych. Bardzo często możliwości aparatury nie są wystarczające do wykonania poprawnych badań. Ważna jest świadomość i znajomość zachodzących zjawisk, gdyż ma to znaczenie dla poprawnego zinterpretowania wyników. Zjawiska, które występują na etapie realizacji pomiaru, mogą w różnym stopniu powodować "przekłamanie" otrzymywanych wyników i dlatego tak ważna jest wiedza o tych czynnikach. Rezultaty zamieszczone w pracy przedstawiają wybrane aspekty metrologiczne związane z torem pomiarowym spektrofotometru, które mogą mieć wpływ na wynik pomiaru transmitancji optycznej próbki materiału. Prezentowane wyniki dotyczą wykorzystania metody spektrofotometrycznej w pomiarach i zostały opracowane na podstawie danych uzyskanych z pomiarów spektrofotometrem dwuwiązkowym. Aparatura pomiarowa Obecne spektrofotometry to urządzenia konstrukcyjnie, z reguły bardzo złożone zarówno pod względem mechanicznym, jak i elektrycznym. Wyposażone są w magistrale komunikacyjne oraz oprogramowanie do obsługi przyrządu i rejestracji wyników. Ogólne dążenie do komputeryzacji technik pomiarowych również tutaj znajduje swoje odzwierciedlenie. Producenci oferują sterowane komputerowo stanowi... więcej»

System akwizycji danych operacyjnych i pogodowych dla farmy fotowoltaicznej (Jacek Stępień, Konstanty W. Marszałek, Tomasz Matuska)
Farma fotowoltaiczna realizuje operację konwersji energii promieniowania słonecznego na energię elektryczną. W związku z koniecznością zapewnienia odpowiedniego poziomu nasłonecznienia paneli fotowoltaicznych, farmy budowane są w różnych, czasami odległych od terenów urbanizacyjnych miejscach. Jednocześnie systemy sterowania i nadzoru poprawności pracy systemu fotowoltaicznego wymagają posiadania często bardzo rozbudowanej infrastruktury komputerowej. Transfer danych do miejsc obsługi odpowiedzialnych za kontrolę stanowi istotny element systemu nadzoru nad prawidłowym funkcjonowaniem obiektu. Kompletne systemy sterowania i nadzoru są oferowane obecnie przez wielu producentów i nie stanowi żadnego problemu zbudowanie infrastruktury kontrolno-sterującej dla urządzeń pracujących na farmie [1-4]. Opisany w artykule system pomiarowy nie jest alternatywą dla rozwiązań tego typu, stanowi jakby pewne ich uzupełnienie. Opracowany, uniwersalny interfejs pomiarowy pozwala na dołączenie urządzenia do dowolnego układu czujnikowego, realizującego pomiary w trybie napięciowym lub prądowym, dzięki możliwości dopasowanie poziomu sygnału do zakresu optymalnego dla systemu akwizycji danych oraz transmisję za pomocą modemu GPR S (ang. General Packet Radio Service) do serwera realizującego wizualizację lub np. wyposażonego w aplikację do analizy efektywności pracy systemu fotowoltaicznego. System jest mobilny, niezależny od infrastruktury komputerowej farmy i bardzo elastyczny (możliwe jest rozbudowanie układu o kolejne moduły bez modyfikacji pozostałej części systemu). Został wykorzystany w pracach badawczych przy wdrażaniu wiatrowo- słonecznej elektrowni hybrydowej. Opis systemu fotowoltaicznego Opisywany system akwizycyjny testowany był na obiekcie przemysłowym tj. hybrydowej elektrowni wiatrowo-słonecznej budowanej w ramach realizacji projektu "Badania nad opracowaniem wytycznych, technik i technologii dla systemów kompensacji mocy biernej,... więcej»

Investigation of the reflective properties of layered antiferromagnetic-dielectric structures (Anton ARKHIPOV, Vladimir GNATUSHENKO)
The terahertz radiation is an interesting, important, and actively investigated frequency region. Development of this range is limited by a lot of reasons and one of them is a deficiency in a component base [1]. Non-reciprocity based on the non-Faraday effects is presented in this work. There are various ways to obtain nonreciprocal properties for anisotropic layered structures. One way is to use a well-known Faraday rotation effect, such as in optical isolators described in [2]. The handedness of this rotation depends on the propagation direction. In the terahertz region Faraday rotation in the ferrofluid at the room temperature was described in the work [3]. The electrically tunable Faraday effect in HgTe thin film is presented in [4]. Electrical control of the room-temperature Faraday effect was described there. High speed amplitude and phase modulators based on such structures were proposed in that paper. Near-infrared Faraday rotation in antiferromagnetic was described for example in paper [5] where laser pulse translation and signal transients in FeBO3 were observed as functions of sample temperature. Next way to obtain nonreciprocal properties is using nonlinear materials in heterostructures. For example in [6] the heterostructures based on the piezoelectric and semiconductor layers was proposed for radio-frequency application. Surface acoustic wave isolator based on two physical phenomena - strongly nonlinear interaction and drifting electron system was proposed here. Another examples of nonreciprocal properties of nonlinear devises in terahertz region was presented in paper [7] where a Faraday isolator operating on the coupled microwave resonators circuit. Another way is to use nature non-reciprocity of anisotropic materials. These properties are widely investigated and described later. For example non-reciprocity reflection in semi-infinitive layered magnetic-dielectric structures is described in [8]. Properties asso... więcej»

Innowacyjna wiatrowo-słoneczna elektrownia hybrydowa o mocy 1,4 MW (Konstanty W. Marszałek, Grzegorz Putynkowski, Jacek Stępień)
W miarę zbliżania się terminu realizacji Dyrektywy Komisji Europejskiej dotyczącej minimalnych wartości energii cieplnej i elektrycznej produkowanych w krajach wspólnoty ze źródeł odnawialnych, zwiększa się w Polsce zarówno liczba obiektów wytwarzających energię elektryczną [1, 2] czy cieplną [3-5], jak i zakres badań naukowych i technicznych [6, 7] z tego obszaru oraz instytucji i firm zajmujących się zagadnieniami odnawialnych źródeł energii. Taki stan rzeczy stwarza unikatowe możliwości do prowadzenia badań [8, 9] na większej liczbie obiektów oraz powierzchni (lub równoczesne badanie większej liczby elementów) w stabilnych, powtarzalnych warunkach a co najważniejsze w otoczeniu realnie funkcjonujących obiektów. Opis elektrowni hybrydowej Zaprojektowana elektrownia hybrydowa złożona jest z turbiny wiatrowej o mocy znamionowej 1 MW oraz paneli fotowoltaicznych połączonych w sekcje, dołączanych lub odłączanych do systemu, w zależności od poziomu generacji turbiny wiatrowej. Za podstawową jednostkę elektrowni hybrydowej uznaje się elektrownię wiatrową, która z założenia dostarczać powinna największy procent energii w systemie. Farma fotowoltaiczna traktowana jest jako system uzupełniający, wykorzystywany w różnym stopniu, w zależności od poziomu aktualnie wyprodukowanej energii w sekcji wiatrowej. W celu zapewnienia większej ... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Methods and tools for multi-criteria selection of sensor system components (Ryszard Świerczyński, Krzysztof Urbański, Artur Wymysłowski )
Choosing an optimal set of components required to build a complete sensor system is challenging and time-consuming task due to huge amount of available electronic components and constrains (input parameters) which have to be taken into account during this process [1]. Predicted fast growth of sensor systems market in the near future (for example, environmental sensor and monitoring market is expected to reach $15.3 billion in 2016 based on BCC Research report) requires better, more efficient design tools and methods to shorten time-to-market period for the new products. It is especially important not just to re-use "well-known and proven solutions", but to choose the best available system components. Without support in the form of computer tools, this task is virtually impossible. Single device selection tools (search engines) are widely supported by electronic component manufacturers and distributors. It is easy to find a device meeting specified requirements, even across various manufacturers. The matter becomes more difficult when one needs to select the optimum set of components at the level of the whole system. In this paper a new approach and design tool is proposed to speed-up designing process of complex sensor system. Emphasis is placed on providing ready-to-use software for selection of a set of available components rather than DEBYS approach proposed for ASIS systems in [3, 4]. Combined database containing detailed component parameters and parametric models in conjunction with external simulatio... więcej»

Meander monopole LTCC antenna for ISM 2.4 GHz (Jan Macioszczyk, Arkadiusz Dąbrowski, Piotr Słobodzian, Leszek Golonka)
Rapid and progressive growth of wireless communication, especially mobile telephony and positioning systems, creates a need for exploration of electromagnetic spectrum in high frequencies (microwaves and millimeter waves). Therefore, modern technical solutions should be multifunctional and hence multiband (in terms of operating frequency) as well as of small size, good quality and reliable [1]. Integrated microwave systems are manufactured using silicon, thin film and LTCC technologies [2]. All of the mentioned technologies are suitable for manufacturing micro- and millimeter waves components, with comparable good electrical parameters. In this paper design, manufacturing and measurements of the microwave monopole antennas are described. Measurements of S11 parameter, comparison between experiment and simulations, tuning of antenna and discussion is presented. Design of the antenna The antenna was designed and manufactured in the LTCC technology. The desired fr... więcej»

Ink-jet printed dielectric layers containing BaTiO3 nanopowders (Marcin Słoma, Karol Lenkiewicz, Grzegorz Wróblewski, Anna Młożniak&#8201;, Małgorzata Jakubowska)
Printed electronics is a new method for making electronics applications, but with growing industry and market is becoming more valuable year by year. In new technologies requiring improved precision it is important to obtain good repeatability and reliability, especially when dosing small amount of materials. For that reason ink-jet printing is one of the most most popular printing technique for precise printed electronics. It is an appropriate method for low cost application and small quantity production in industry or for research and laboratory tests. Ink-jet is a non-contact additive method and does not require stencil, mesh or rotating rollers, ink goes directly from dispenser head to substrate. For that reason loss of material is minimized. Small diameter of nozzle allows to obtain very thin and narrow lines. The smallest line width is 14 - 25 &#956;m [1]. Better efficiency was observed for polymeric photovoltaic device manufactured by ink-jet printing than the same layer thickness made by spin-coating. The reason was faster ink drying in ink-jet method [2]. Non-contact method allows to make 3D-printing such as abluminal coating for stents [3]. Ink-jet printing is an appropriate method for manufacturing passive electronic components like resistors, capacitors [4], biomedical devices like sensors, diagnostic elements [5] and RFID tags [6], organic transistors [7]. Ink-... więcej»

Modeling of properties of multilayer inductances fabricated in different microelectronics technologies (Grzegorz Błąd, Mariusz Pilecki, Jerzy Potencki, Grzegorz Tomaszewski&#8201;)
The planar inductors are more and more frequently used in modern electronics, for example in different mobile devices, RFID systems, electromagnetic converters for energy harvesting or hard disk writing heads. Basic requirements for these types of devices are a small size and a high level of integration while maintaining theirs full usefulness. Practically, all microelectronic technologies enable the manufacture of planar inductors in the form of multilayer structures, which results in essential increasing of their inductance. In addition, these types of inductive components have very good technical parameters, such as quality factor (Q), relative high SRF (self-resonant frequency), and their production process is less complex than traditional coils [1-5]. Currently, there are many programs for design and simulation of inductive components on the market. But only a few of them offer the opportunity to go through the full design phase starting to build a computer model through analysis and simulation to the development process. In this work Mentor Graphics Expedition Enterprise software and particularly IE3D package have been used. It is highly-professional software designed especially for the complex design of electronic circuits performed on PCB, but it can be successfully used for the design of multilayer structures implemented in other technologies (e.g. thin-, thick-film, LTCC). IE3D is an integrated full-wave electromagnetic simulation and optimization package for the analysis and design of 3D ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»