profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Zapewnienie iskrobezpieczeństwa urządzeń kontrolno-pomiarowych stosowanych w przestrzeniach zagrożenia wybuchem (Jerzy Chud orliński, Paweł Michalski, Piotr Prystupiuk)
Elektryczne urządzenia kontrolno-pomiarowe stosowane w przestrzeniach zagrożenia wybuchem w ze względu na specyficzne warunki pracy muszą spełniać, oprócz stawianych im wymagań eksploatacyjnych, wymagania dotyczące iskrobezpieczeństwa. Wymagania te są określone w dyrektywie ATEX i normach z nią zharmonizowanych. Zastosowanie tych urządzeń w przestrzeniach gdzie istnieje niebezpieczeństwo powstania mieszanin wybuchowych, wymaga od nich specjalnej konstrukcji zapewniającej maksymalne bezpieczeństwo pracy. Do jednych z najbardziej znanych i najczęściej stosowanych należą urządzenia i obwody w wykonaniu iskrobezpiecznym. Urządzenia te zwykle są umieszczane w obudowie ognioszczelnej (oznakowanej "Exd") zapewniającej iskrobezpieczeństwo wyrobu, jednakże pewne obwody związane np.: z pomiarem upływności kabli, pomiarem ciągłości obwodów uziemienia, sterowania iskrobezpiecznego, czy też obwody transmisyjne są wyprowadzone na zewnątrz obudowy, w szczególności w strefach zagrożonych wybuchem metanu czy tez pyłu węglowego. Przykładem takich urządzeń jest system sterowania i zabezpieczania obwodów zasilania trójfazowych silników indukcyjnych przed skutkami przeciążeń, zwarć, asymetrii prądu obciążenia oraz nadmiernego wzrostu temperatury, który kontroluje rezystancje izolacji torów głównych zapobiegając podaniu napięcia na uszkodzony odcinek sieci energetycznej oraz zapewnia kontrolę ciągłości uziemienia. Są to urządzenia należące do grupy I oraz kategorii M1 i przeznaczone do stosowania w wyrobiskach kopalń i w częściach instalacji powierzchniowych tych kopalń narażonych na występowanie zagrożenia wybuchem metanu i/lub pyłu węglowego. W polach metanowych stosuje się systemy zabezpieczeń metanometrycznych, umożliwiające ciągły pomiar i rejestrację zawartości metanu oraz zapewniające wyłączenie urządzeń elektrycznych spełniające zasadnicze wymagania określone w przepisach dotyczących wyrobów podlegających ocenie zgodności. W wyrobiskach n... więcej»

Czasopisma NT, Indeksy, Cytowania, Bazy danych, Wydawnictwa Cyfrowe, Bibliometria. Część 1 (Ryszard S. Romaniuk)
Indeksy, cytowania, bibliometria, ocena parametryczna jednostek naukowych, ocena osobista dorobku uczonych są przedmiotem zainteresowania środowiska naukowego, choćby ze względu na powiązanie tych funkcji i parametrów z procesami legislacyjnymi dotyczącymi nauki w naszym kraju. Jesteśmy świadkami, a niektórzy z nas uczestnikami i autorami, intensywnych przemian w sposobie wydawania czasopism naukowo-technicznych (NT). Czasopisma NT podlegają szybkim zmianom, wraz z "internetyzacją" tj. cyfryzacją, informatyzacją, badań naukowych i powiązanych z badaniami i innowacjami, zaawansowanych procesów przemysłowych. Czasopisma te już obecnie nie liczą się praktycznie prawie zupełnie jako zbiory biblioteczne wydań papierowych (jedynie jako zbiory historyczne) a tylko i wyłącznie jako bazy danych o bardzo dobrej, tylko dobrej, lub nieco słabszej proweniencji. Historyczne wydania są coraz częściej w pełni digitalizowane i archiwizowane. Większość czołowych wydawnictw zarchiwizowało kolekcje swoich czasopism NT. Jakość bazy danych (według instytucji finansujących badania i administracji nauki) jest współmierna z wysokością indeksów oceniających czasopismo, i dalej z wysokością finansów i obłożeniem przez najlepszych autorów z najlepszych ośrodków naukowych, generujących najlepsze wyniki naukowe i techniczne. Czasopismom o charakterze lokalnym bardzo trudno jest uzyskać wysokie wskaźniki bibliometryczne. W kraju zrodziła się koncepcja powołania Polskiego Indeksu Czasopism Naukowych. Do takiej roli aspiruje prawdopodobnie Index Copernicus (IC Journal Master List), ale nie tylko, także inne. Powstaje duży portal krajowy zarządzania nauką Pol-ON, w ramach którego mogą być zapewne tworzone mechanizmy tworzenia ocen i indeksów instytucji, wydawnictw, czasopism i osób. Prowadzona jest intensywna dyskusja nad przyszłością wielu czasopism i sposobem ich wydawania. Artykuł jest niezbyt uporządkowanym i skromnym przyczynkiem do tej dyskusji. Tematy... więcej»

Utlenianie węglika krzemu: charakteryzacja procesu i metody symulacji kinetyki (Krystian Król, Mariusz Sochacki, Jan Szmidt)
Klasyczna technologia krzemowa osiąga bariery, które znacznie ograniczają możliwości jej zastosowania w urządzeniach dużej mocy i pracujących w wysokich temperaturach. Jednym z fundamentalnych ograniczeń jest wzrost koncentracji samoistnej nośników w półprzewodnikach wraz ze wzrostem temperatury. Bezpośredni wpływ na wartość koncentracji samoistnej ma szerokość przerwy energii zabronionych danego materiału. Od wielu lat bada się materiały o dużej szerokości przerwy zabronionej, które mają znacznie lepsze właściwości w wymienionych zastosowaniach niż krzem. Materiałem, z którym wiązane są największe nadzieje na rozwiązanie tych problemów, jest węglik krzemu (SiC). Materiał ten charakteryzuje się dużą szerokością przerwy zabronionej (2,4-3,26 eV w zależności od politypu [1]), co umożliwia pracę przyrządów SiC w wysokich temperaturach, nawet 700-800oC [2], wysokim krytycznym polem elektrycznym, dużą przewodnością cieplną oraz wysoką maksymalną prędkością unoszenia nośników. Ponadto materiał ten ma istotną przewagę nad innymi półprzewodnikami o szerokiej przerwie zabronionej - jako jedyny ma możliwość wytwarzania naturalnego, wysokiej jakości (z punktu widzenia właściwości objętościowych) dielektryka (SiO2) w procesie utleniania termicznego. Jest to jeden z elementów, który wywołał duże zainteresowanie węglikiem krzemu, ponieważ proces utleniania termicznego jest dobrze znany z technologii krzemowej i jest jednym z najlepiej opanowanych procesów technologicznych W ostatnim okresie dużo prac poświęcono próbom wytworzenia tranzystora mocy MOSFET na podłożach z węglika krzemu, z powodu potencjalnie znacznie lepszych właściwości w porównaniu z tranzystorem krzemowym, szczególnie w zakresie zastosowań związanych z szybkim przełączaniem w układach mocy. Współczesne tranzystory MOSFET SiC charakteryzują się jednak znacznie mniejszą niż przewidywana ruchliwością efektywną nośników w kanale. Tłumaczy się to dużą gęstością defektów na gra... więcej»

Badania rentgenowskie zespołów elektronicznych (Krzysztof Lipiec, Grażyna Kozioł, Konrad Futera)
Coraz bardziej postępująca miniaturyzacja i zwiększenie gęstości upakowania układów elektronicznych, powoduje powstawanie większej ilości różnego rodzaju wad podczas wytwarzania zarówno samej płytki obwodu drukowanego, jak również w czasie procesu montażu elektronicznego. Dlatego konieczna jest odpowiednia kontrola wykonania gotowego wyrobu. Wykorzystywane są do tego celu urządzenia automatycznej inspekcji optycznej, pozwalające na szybkie i dokładne sprawdzenie jakości połączeń lutowanych po wykonaniu montażu elementów elektronicznych. Jednakże inspekcja optyczna nie dostarcza informacji o jakości powstałych połączeń lutowanych pod obudową podzespołu elektronicznego, tak jak to ma miejsce w przypadku wielowyprowadzeniowych struktur BGA, CSP lub nieobudowanych struktur półprzewodnikowych typu flip chip (rys. 1). Szczegółowych informacji na temat jakości połączeń tych podzespołów i struktur dostarcza automatyczna kontrola rentgenowska [1]. Badania rentgenowskie w Instytucie Tele- i Radiotechnicznym wykonywane są na urządzeniu do inspekcji rentgenowskiej Nanome/ X 180 NF, umożliwiającym obserwację badanego obiektu nie tylko w jednej płaszczyźnie, ale również pod kątem do 70°. Jest to niezwykle pomocne podczas kontroli połączeń lutowanych elementów w obudowach z wyprowadzeniami sferycznymi, gdyż tylko wtedy można prowadzić bardziej złożone analizy jakości połączeń po procesie lutowania [2]. Wykonując analizę rentgenowską należy pamiętać, że na jakość połączenia lutowanego ma wpływ wiele czynników. Wykryte wady w wyniku badania rentgenowskiego w połączeniach lutowanych można... więcej»

System SKF 11 do kontroli jakości filtrów przeciwzakłóceniowych (Marcin Karliński, Włodzimierz Mocny, Janusz Wójcik, Jerzy Zając )
Kontrola jakości produktów nie ogranicza się do sprawdzenia jakości wyrobów, ale oczekuje się także, że dostarczy ona producentowi informacji zwrotnych związanych z jakością i efektami działań produkcyjnych. Procesy pomiarowe prowadzone w różnych etapach produkcji są głównym źródłem informacji o jakości. Producenci oczekują także, że pomiary zostaną powiązane z automatyzacją operacji, transportem międzyoperacyjnym wyrobów, segregacją dobry/wadliwy, znakowaniem, archiwizacją wyników pomiarów itp. [3, 7, 8]. Wraz ze zmniejszaniem zaangażowania personelu w krytyczne operacje produkcyjne rośnie powtarzalność uzyskiwanych rezultatów, a liczba błędów maleje. Łatwiejsze jest także uzyskanie formalnej zgodności procesu kontroli jakości z zasadami systemów zapewnienia jakości (np. ISO 9001) [5]. Rezultatem takich wymagań jest znaczny koszt i złożoność systemów, ale jest to kompensowane przez wysoką wydajność systemu i niskie koszty jednostkowe operacji pomiarowych. We wcześniejszych publikacjach [3, 4, 10] przedstawiono wymagania stawiane produkcyjnym systemom kontroli jakości oraz wybrane rozwiązania zastosowane w systemie kontroli jakości filtrów przeciwzakłóceniowych SKF 06 opracowanym w Przemysłowym Instytucie Elektroniki. Podobne wymagania musiał spełniać także wcześniej opisywany system kontroli kondensatorów przeciwzakłóceniowych [6]. Po kilku latach, z inicjatywy producenta filtrów, ten sam zespół podjął opracowanie nowego, podobnego systemu do kontroli jakości filtrów oznaczonego SKF 11. W systemie tym wykorzystano wcześniejsze doświadczenia i wprowadzono nowe rozwiązania usprawniające dostrzeżone niedoskonałości poprzednika. Zwiększono możliwości produkcyjne producenta filtrów i poprawiono jego pozycję konkurencyjną dzięki obniżeniu kosztów i podniesieniu jakości produkcji. Nowy system wymagał uwzględnienia następujących okoliczności: 1) Wprowadzenie do produkcji nowych typów filtrów w nowych obudowach, 2) Zwiększenie wy... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Relacyjna baza danych przechowująca dane z doświadczeń związanych z ochroną roślin - proces projektowania (Małgorzata Tartanus, Tadeusz Antczak )
We współczesnym świecie, zdominowanym przez olbrzymią ilość różnorodnych informacji, nie sposób sobie wyobrazić efektywnego funkcjonowania człowieka bez możliwości i udogodnień, jakie oferują bazy danych. Obecnie człowiek spotyka się na co dzień z tak dużą ilością i różnorodnością informacji, iż trudno byłoby mu je wszystkie zapamiętać, a w konsekwencji mógłby łatwo się pogubić w ich efektywnym wykorzystaniu dla swoich potrzeb. Praktycznie każdy rodzaj informacji, z jakim ma do czynienia człowiek w swoim środowisku, daje się przechowywać w bazach danych. Dlatego bazy danych stały się nieodzownym narzędziem w przechowywaniu informacji, a następnie ich przetwarzaniu, zgodnie z potrzebami współczesnych ludzi. Bazę danych można zdefiniować m.in. jako model pewnego wycinka świata rzeczywistego (niekoniecznie istniejącego fizycznie lub też takiego, który nigdy fizycznie nie istniał), który jest przedmiotem zainteresowania przyszłych użytkowników. Takim fragmentem rzeczywistości, który może być zamodelowany przy wykorzystaniu baz danych, jest rolnictwo, a dokładniej, jego poszczególne działy, w tym choćby badania i doświadczenia naukowe prowadzone w tym obszarze aktywności współczesnego człowieka. W literaturze można znaleźć przykłady aplikacji bazodanowych wspomagających producentów płodów rolnych w ich codziennej pracy [6, 4, 8], a także wyniki badań dotyczących różnych aspektów związanych z produkcją rolną [9], które dotyczą możliwości wykorzystania baz danych w tym obszarze badań naukowych. Systemy gromadzenia danych o sprzedaży i zużyciu środków ochrony roślin są podstawą krajowych strategii zrównoważonego stosowania środków ochrony roślin [5]. Aktualnie trudno wyobrazić sobie produkcję płodów rolnych bez stosowania środków ochrony roślin. Celem niniejszych rozważań jest przedstawienie relacyjnej bazy danych "Archiwum dokumentów", która usprawnia prowadzenie badań i doświadczeń naukowych związanych z ochroną roślin. Jej głó... więcej»

Trawienie włókien światłowodowych w celu odsłonięcia rdzenia do zastosowania w bioczujnikach z wykorzystaniem modów galerii szeptów (Karolina Orłowska, Zuzanna Kowalska, Magdalena Morawiec, Piotr Pałetko, Anna Sankowska, Teodor Gotszalk)
Obecnie nowoczesne metody diagnostyczne stanowią obiekt zainteresowań zarówno grup naukowo-badawczych na całym świecie, jak i przeciętnych użytkowników, takich jak lekarze i ich pacjenci, pracownicy stacji epidemiologicznych czy inżynierowie nadzorujący linie produkcyjne w przemyśle spożywczym i chemicznym. Rozwój technologii bioczujników otwiera nowe możliwości prowadzenia badań o skróconym czasie i obniżonych kosztach. Wraz z powstaniem bioczujników pojawiły się nowe możliwości związane z szybkością i jakością przeprowadzanych analiz, mobilnością, a także z niewielkimi rozmiarami czujników. Duże zainteresowanie bioczujnikami doprowadziło do rozwoju wielu technik detekcji ze szczególnym uwzględnieniem metod bezznacznikowych (ang. labelfree) wykorzystujących m.in. tranzystory polowe FET i nanodruty [1, 2], mikrodźwignie [3], mikrowagi [4] i kamertony kwarcowe [5], Bardzo dużo takich technik stanowią techniki optyczne, w których wykorzystuje się powierzchniowy rezonans plazmonowy [6], światłowody włókniste i planarne [7], mody galerii szeptów (ang. whispering gallery modes, WGM) [8] czy techniki interferometryczne [9-11]. Techniki bezznacznikowe (ang. label-free) charakteryzuje szereg zalet w porównaniu z konwencjonalnymi metodami opartymi na zastosowaniu markerów. W metodach tych nie dochodzi do niepożądanej modyfikacji badanej substancji przez znacznik, badania mogą być prowadzone w czasie rzeczywistym, a czujniki są stosunkowo proste i mogą być wytwarzane niskim kosztem. Wytworzenie bioczujnika, który spełniałby wysokie wymagania odnośnie selektywności i czułości pomiarowej wymaga szerokiej wiedzy z zakresu elektroniki, optoelektroniki, chemii, biologii i biochemii. Konstrukcja czujnika powinna umożliwiać komercjalizację i być konkurencyjna wobec innych bioczujników dostępnych na rynku. Należy zaznaczyć jednocześnie, że wśród tak wielu propozycji konstrukcji czujnikowych nie ma możliwości wybrania najlepszego i uniwersal... więcej»

Zastosowanie zmodyfikowanego przekształcenia Wignera - Ville'a do analizy sygnałów zmodulowanych (Tomasz Kraszewski)
Wydobycie informacji użytecznej z odebranych emisji elektromagnetycznych na tle zakłóceń i szumów jest głównym celem urządzenia odbiorczego. W przypadku rozpatrywania sygnałów zmodulowanych częstotliwościowo sytuacja staje się bardziej kłopotliwa, a skomplikowana struktura wewnętrzna sygnału wymusza poszukiwanie innych rozwiązań jego analizy, niż standardowe podejście w dziedzinie czasu i częstotliwości. Dla takiego przypadku, obiecująco wygląda zastosowanie przekształceń czas - częstotliwość [1, 2] prowadzących do pojęcia rozkładów czasowo-częstotliwościowych (ang. TFD - time frequency distribution) przenoszących rozpatrywanie sygnałów do wspólnej czasowo - częstotliwościowej przestrzeni parametrów. Wspomagają one wykrycie emisji elektromagnetycznej, jak również ustalenie jej struktury wewnętrznej. Głównym ich celem jest jak najdokładniejsza łączna amplitudowo - częstotliwościowa dekompozycja analizowanego sygnału charakteryzującego się złożoną zależnością od czasu. w rozwiązywaniu problemów detekcji i analizy informacji użytecznej niesionej przez sygnały mające często niestacjonarny charakter. Czasowo-częstotliwościowy rozkład ... więcej»

Przepływomierz kolanowy do pomiaru strumieni przepływu gazu (Michał Kamiński, Artur Andruszkiewicz)
Wśród wielu typów przepływomierzy do ciągłego pomiaru strumieni przepływu na uwagę zasługują przepływomierze kolanowe. Ich zaletą jest to, że są przepływomierzami bezinwazyjnymi - nie ingerują w przepływ i nie powodują dodatkowej straty ciśnienia. Można nimi mierzyć strumienie przepływu zarówno cieczy i gazów, a także wykorzystać je w transporcie pneumatycznym do pomiaru strumienia fazy stałej np. w układach transportujących mączkę wapienną do fluidalnych kotłów energetycznych. W każdej instalacji transportu znajduje się kolano, a mierząc ciśnienie różnicowe między zewnętrzną i wewnętrzną stroną kolana oraz wyznaczając współczynnik przepływu możliwy jest ciągły pomiar strumienia medium. Celem artykułu jest przedstawienie sposobu pomiaru strumienia powietrza tego rodzaju przepływomierzem i wyznaczenie jego charakterystyk metrologicznych. Zasada pomiaru przepływomierzem kolanowym Zasada pomiaru polega na proporcjonalności strumienia przepływu do pierwiastka kwadratowego z różnicy ciśnień płynu między zewnętrzną, a wewnętrzną strona kolana. Różnica ta spowodowana jest silą odśrodkową działająca na poruszający się ... więcej»

IC-SPETO PO RAZ XXXVII (Marian Pasko, Piotr Holajn, Krzysztof Sztymelski)
Po raz trzydziesty siódmy w dniach 21-24 maja 2014 roku odbyła się jedna z największych i najbardziej uznanych w Polsce konferencji poświęcona szeroko rozumianej elektrotechnice. Mowa o XXXVII Międzynarodowej Konferencji z Podstaw Elektrotechniki i Teorii Obwodów IC -SPE - TO . Konferencja ta objęta jest patronatem wielu uznanych organizacji takich jak: Polska Akademia Nauk PAN, Polskiej Sekcji IEEE , czy też Polskiego Towarzystwa Elektrotechniki Teoretycznej i Stosowanej PTET iS. Pieczę nad merytoryczną częścią konferencji sprawuje Komitet Programowy, którego przewodniczącym jest prof. Stanisław Bolkowski dr Honoris Causa Politechniki Śląskiej. Organizacją konferencji zajm... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
Światłowody i ich zastosowania 2014 (Jan Dorosz, Ryszard Romaniuk)
Technika światłowodowa rozwijana jest w kraju, także na poziomie technologicznym, od połowy lat siedemdziesiątych ubiegłego wieku. Wkrótce będziemy obchodzić jej krajowe czterdziestolecie. Pierwsze ośrodki technologiczne powstały na terenie Wydziału Chemii UMCS w Lublinie (prof. A. Waksmundzki, J.Wójcik, A.Gorgol) w 1975 roku, a następnie na terenie instytutu ITME w Warszawie (L. Kociszewski), Hucie Szkła Polam-Ożarów, oraz na Politechnice Białostockiej i w Hucie Szkła Białystok (J. Dorosz). Obecnie technologiczne prace badawcze nad światłowodami są kontynuowane z sukcesem w trzech ośrodkach: Lubelskim (UMCS i PL), Białostockim (PB) i Warszawskim (ITME). Produkowane zaawansowane światłowody są stosowane w badaniach materiałowych i technologicznych, rozwoju procesów, a także do wytwarzania funkcjonalnych elementów i urządzeń fotonicznych. Z produkcji światłowodów telekomunikacyjnych, fotonicznych i specjalizowanych nietelekomunikacyjnych, w wymienionych ośrodkach, korzysta wiele laboratoriów elektronicznych, metrologicznych, telekomunikacyjnych, optoelektronicznych i fotonicznych, głównie uczelnianych, w całym kraju i zagranicą. Z tych światłowodów produkcji krajowej zbudowano wiele innowacyjnych elementów, układów i systemów fotonicznych. Dzięki dostępności w kraju światłowodów włóknistych telekomunikacyjnych i specjalnych, na wielu uczelniach mogły rozwinąć się nowoczesne laboratoria fotoniki światłowodowej. Jest to znaczny, chyba niedoceniany, sukces krajowych ośrodków technologicznych, wśród których Laboratorium Technologii Światłowodów na UMCS w Lublinie, pod kierownictwem prof. Andrzeja Waksmundzkiego, było pierwsze. Tradycja krajowych konferencji światłowodowych Krajowe środowisko naukowo-techniczne fotoniki i optoelektroniki światłowodowej spotyka się co półtora roku, na ogół w dość licznym towarzystwie gości zagranicznych, na Krajowej Konferencji" Światłowody i ich Zastosowania". XV Konferencja OFTA2014 odbyła się... więcej»

Zrekonstruowana cyfrowo "Wojna światów"
KinoRP jest przedsięwzięciem zainicjowanym w roku 2008 i koordynowaną przez Cyfrowe Repozytorium Filmowe. Honorowym patronatem KinaRP jest Minister Kultury i Dziedzictwa Narodowego Bogdan Zdrojewski, a patronami medialnymi: KINO, Telewizja Kino Polska, Radio TOK FM, FilmPRO, oraz serwisy internetowe: KronikaRP.pl, Serwis sfp.org.pl i Audiowizualni. pl. Digitalizacja umożliwia, jak nigdy dotąd, szerokie otwarcie magazynów filmowych i wydobycie najstarszych i najcenniejszych dzieł sztuki filmowej. Cyfrowy zapis to rewolucja w udostępnianiu filmów publiczności w formie kina cyfrowego, dysków optycznych lub na użytek telewizji, bądź inte... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Model przepływomierza tarczowego (Paweł Pliszka, Elżbieta Wróblewska, Artur Andruszkiewicz)
W Instytucie Techniki Cieplnej i Mechaniki Płynów Politechniki Wrocławskiej prowadzone są prace dotyczące wyznaczenia charakterystyk metrologicznych różnego typu przepływomierzy. Zbudowano m.in. model przepływomierza oscylacyjnego i wyznaczono jego charakterystykę [1], przeanalizowano pracę przepływomierza ultradźwiękowego w niestandardowych warunkach pracy i dla wysokiej temperatury przepływającego płynu [2]. Aktualnie prowadzone są prace nad przepływomierzem tarczowym. Zbudowano jego model, a także wyznaczono jego charakterystyki metrologiczne. Przepływomierze te charakteryzują się tym, że można je wykorzystywać do pomiarów płynów zabrudzonych zanieczyszczeniami stałymi, a także pęcherzami gazu [3]. Można je również stosować w pomiarach płynów o wysokich ciśnieniach i temperaturach, a jego dokładność jest rzędu dokładności klasycznych przepływomierzy np. zwężkowych. Celem artykułu jest opisanie budowy przepływomierza tarczowego wraz ze sposobem rejestracji sygnału od siły naporu hydrodynamicznego płynu na tarczkę, a także przedstawienie przykładowych jego charakterystyk. Model przepływomierza tarczowego Rysunek 1 przedstawia szkic przepływomierza tarczowego, który służy do wyprowadzenia równania pomiaru. Pisząc równanie Bernoulliego dla przekrojów 1-1 i 2-2, równanie ciągłości oraz wzór na siłę naporu na tarczkę kołową umieszoną w środku rurociągu, strumień objętości czy masy przepływającego płynu w rurociągu można wyznaczyć z równania 1 lub 2 [4]: (1) (2) q =  ... więcej»

Wykorzystanie sensorów radiowych w procesie lokalizacji emiterów (Grzegorz Czopik, Tomasz Kraszewski)
Przedsięwzięcie związane z budową rozproszonego systemu lokalizacji aktywnych emiterów radiowych było już sygnalizowane na łamach Elektroniki [1, 2]. W niniejszym artykule przedstawiono całość projektu ze szczególnym uwzględnieniem sensora radiowego i jego parametrów. Jako podstawowy element służący do budowy systemu, musiał zostać przebadany pod kątem parametrów, które uznano za najważniejsze ze względu na realizowane zadania. W systemie opracowanym w ramach projektu wykorzystano 5 urządzeń odbiorczych N6841A (RF Sensor) firmy Agilent [3] (rysunek 1). Są to szerokopasmowe odbiorniki pracujące w zakresie częstotliwości od 20 MHz do 6 GHz. Posiadają one dwa kluczowane wejścia sygnałowe RF, co pozwala na jednoczesne podłączenie dwóch anten. Odebrane i przechwycone dane mogą zostać zapisane w buforze wewnętrznym.Dużą precyzję synchronizacji pomiarów oraz oznaczanie danych pomiarowych sygnaturami czasowymi zapewnia wbudowany odbiornik GPS wraz z aktywną anteną. Sterowanie urządzeniem oraz odbiór danych w postaci ciągłego strumienia danych odbywa się z wykorzystaniem uniwersalnej magistrali sieciowej z wykorzystaniem protokołu TCP/IP [3]. Schemat blokowy wewnętrznej struktury odbiornika przedstawiony został na rysunku 2. Urządzenie pracuje tylko i wyłącznie pod kontrolą specjalizowanych aplikacji programowych definiowanych przez użytkownika. Zestaw wbudowanych w urządzenie elementarnych funkcji sterujących nakierowany jest na monitorowanie widma i detekcję sygnałów obecnych w kontrolowanej przez moduły N6841A przestrzeni. Potencjalny zakres zastosowań urząElektronika 5/2014 43 Rys. 3. Pomiar czułości stycznej - układ pomiarowy Fig. 3. The measurement of the tangential sensitivity Czułosc styczna -118 -116 -114 -112 -11... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
A method for identifi cation of static and dynamic characteristics of a non-zero chirp Mach-Zehnder optical intensity modulator for application in OOK fi ber optic communication line (ZBIGNIEW LACH)
Performance parameters of an On-Off-Keying (OOK) fi ber optic communication line: chromatic dispersion, parameters of polarization mode dispersion, optical signal to noise ratio, can be learned from distortion of the received signal. For this purpose the signal that outputs the transmitter of the line shall be known at the receiving end, which normally is not the case. In one approach to fi x this defi ciency the lacking signal can be retrieved from a detected data sequence through the use of a known model of static and dynamic characteristics of the optical modulator. Parameters of such a model shall be measured at the transmitter and communicated to the receiver end via some separate data network. Although optical phase is lost in non-coherent receivers, possible phase modulation in a transmitter [1, 2] affects optical intensity of a signal being propagated through a dispersive medium, hence the complete knowledge on how data sequence in a modulator is transformed to optical fi eld is indispensable. In applications to a non-coherent OOK communication line direct phase measurements shall be avoided. This calls for a suitable method that allows learning modulator static and dynamic characteristics from intensity data only. The problem is on the crossing of system identifi cation and fi ber optics domains. It is the focus of this paper to fi nd from the plethora of identifi cation methods [3, 4] the one that fi ts the particular needs of the considered application. The paper focuses on a transmitter with a Mach-Zehnder optical modulator and extends results from [5] where a method for estimation of a Mach-Zehnder (MZ) modulator static characteristics from intensity measurements was introduced. Static and dynamic characteristics of a Mach-Zehnder modulator A Mach-Zehnder optical modulator converts an electronic driving signal to corresponding optical intensity and possibly some associated optical phase variation. Such phase vari... więcej»

Badanie przepływomierza ultradźwiękowego z nakładkami izolującymi od wysokiej temperatury przepływającego czynnika i w niestandardowych warunkach pracy (Konrad Tajchman, Paweł Pliszka, Wiesław Wędrychowicz, Artur Andruszkiewicz)
Niniejsza publikacja jest kontynuacją wcześniejszego artykułu [1], którego tematyka dotyczyła pomiarów strumieni przepływów płynu przy użyciu przepływomierza ultradźwiękowego z podkładkami separującymi głowice od wysokiej temperatury przepływającego czynnika. W poprzednim artykule wskazano najlepszą konfigurację parametrów jakie należy wprowadzić do jednostki centralnej przepływomierza w celu minimalizacji błędu spowodowanego wprowadzeniem podkładek separujących pod czujniki ultradźwiękowe. Przeprowadzone pomiary pokazały, że najlepszym rozwiązaniem jest dodanie do zmierzonej wartości średnicy połowy grubości nakładki teflonowej i wprowadzenie tej wartości jako średnicy do jednostki centralnej przepływomierza. Należy wprowadzić również rzeczywistą grubość ścianki rurociągu, a odległość czujników przepływomierza ustawić zgodnie z obliczoną wartością przez jednostkę centralna przepływomierza. Pomija się całkowicie materiał z jakiego składa się nakładka. Prace pomiarowe zostały przeprowa... więcej»

Układy do kontroli połączeń elektrod z pacjentem w badaniach elektrodiagnostycznych (PIOTR KARDYŚ, MAREK PORTALSKI)
W jednym z artykułów prezentowanych na łamach "Elektroniki" [7] w cyklu poświęconym bezprzewodowym systemom telemetrycznym, przedstawiliśmy moduł pomiarowy EE G/EKG przeznaczony do badań zdalnych. Moduł ten, podobnie jak inne urządzenia diagnostyczne korzystające z elektrod pomiarowych przylepianych bądź przykładanych do ciała osoby badanej, wymaga utrzymania rezystancji przejściowych, a ściślej impedancji na styku elektroda/ elektrody-tkanka w pewnych z góry ustalonych granicach, celem zapewnienia prawidłowej pracy urządzenia i uzyskania niezafałszowanych wyników pomiaru. W przypadku badań elektroencefalograficznych (EE G), rezystancje przejściowe elektrod przykładanych do głowy pacjenta nie powinny przekraczać 5 kΩ [10], w przeciwnym razie do obwodów wejściowych wzmacniacza dotarłyby zakłócenia indukowane w otoczeniu pacjenta (przede wszystkim z sieci energetycznej), jak również drastycznie wzrósłby poziom szumów. Stosuje się zatem specjalne pasty przewodzące, poprawiające kontakt elektrod ze skórą. W badaniach elektrokardiograficznych (EKG) dopuszcza się nieco większe wartości rezystancji - do 10 kΩ w pomiarach metodą Holtera [1]. Istnieją jednak badania, w których rezystancje przejściowe elektrod przyjmują znacznie większe wartości. Ciekawym przykładem może być badanie za pomocą wariografu, powszechnie, choć niezupełnie słusznie nazywanego "wykrywaczem kłamstw" [6], w którym na palce jednej ręki (zwykle wskazujący i środkowy) zakłada się elektrody suche, pozbawione pasty przewodzącej czy żelu, gdyż w tym wypadku potliwość ciała ma kluczowe dla wyników znaczenie. Wprowadzenie substancji przewodzącej między powierzchnię czynną elektrody a skórę uniemożliwiłoby monitorowanie tego parametru. W takich badaniach rezystancje przejściowe elektrod sięgają dziesiątek, a nawet setek kiloomów, w zależności od wilgotności naskórka i pośrednio od stanu emocjonalnego osoby badanej oraz jej reakcji (ang. GSR, galvanic skin res... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect (Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)
W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Time-delay of arrival estimation from voice signal (Damian Cetnarowicz, Adam Dąbrowski)
This article concerns the issue of the sound source localization in order to automate video surveillance or improve the quality of voice recording. The sounds in general, are a rich medium of convenient communication. The sounds in organized human activities allow for spatial orientation. The case of the voice message is associated with a variety of techniques that involve the recording and transmission of voice, in order to transmit it to the recipient. In this way the voice message can be listened to in a distant location or can be played back at a later time. It is particularly important that the intelligibility of the message conveyed by voice should be high. Speech intelligibility can be limited by properties of equipment, recording or playback conditions. Current technological development provides a variety of solutions to acquire, compress and transmit the speech signals with almost no noticeable reduction in quality, which is confirmed by a subjective assessment. The speech intelligibility very often is reduced by disturbing sounds including traffic noise and other speaking persons. In literature it is called the “cocktail party" problem. It is difficult to cancel the disturbing sounds by filtering in frequency domain because the spectrum of the disturbing sounds overlaps with the spectrum of voice. Using statistical independence the signals can be separated by blind source separation (BSS) methods. Comprehensive review of BSS methods can be found in the book [1]. The authors of this article have already studied the properties of blind separation [2] and its usefulness in applications for hearing aids [3] or for automatic speech recognition in human-machine interfaces [4] [5] [6]. The effective algorithms for independent component analysis (IC A) were considered in [7]. The directional filtering also was investigated for application of speech intelligibility improvement [8]. It was noticed, that the performance o... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Implementacje FPGA modułów kwantyzacji i dekwantyzacji w sprzętowych koderach wideo (Grzegorz Pastuszak)
Standard H.264/AVC [1] jest powszechnie używany w różnych aplikacjach komunikacyjnych oraz w rejestracji wideo. W stosunku do poprzednich standardów pozwala on na redukcję budżetu bitowego do 50% przy zachowaniu podobnej jakości zdekodowanego materiału wideo. Ostatnie prace w dziedzinie kompresji wizyjnej doprowadziły do opracowania kolejnego standardu nazwanego H.265/HEVC [2]. Efektywność kompresji uzyskiwana przy zastosowaniu nowych technik jest zwiększona nawet dwukrotnie w stosunku do standardu H.264/AVC. Ulepszenia algorytmu dotyczyły wielu modułów i sposobu organizacji danych. Jednakże moduły kwantyzacji i dekwantyzacji są w obu standardach podobne. Stąd techniki projektowania opracowane dla standardu H.264/ AVC mogą być z powodzeniem przeniesione do H.265/HEVC.Rysunek 1 przedstawia diagram blokowy kodera wideo z wyróżnionymi modułami kwantyzacji i dekwantyzacji. Współczynniki transformaty są kwantowane, aby usunąć mniej istotne informacje przed zakodowaniem entropijnym. Dekwantyzacja jest konieczna do rekonstrukcji treści wideo dla kolejnych bloków, makrobloków i obrazów kodowanych zarówno w trybie predykcji wewnątrzobrazowej (INTRA) i międzyobrazowej (INTER). Analiza kosztu bitowego i zniekształceń (RD) używana do wyboru trybu umożliwia uzyskanie dużej efektywności kompresji. Z drugiej strony koszt obliczeniowy zwiększa się, ponieważ wiele trybów musi być przetworzonych w pętli rekonstrukcji zawierającej kwantyzację i dekwantyzację. By uzyskać wydajność czasu rzeczywistego koder sprzętowy powinien wykorzystać pętlę rekonstrukcji o dużej przepustowości. W szczególności liczba modułów kwantyzacji i dekwantyzacji musi być zwiększona celem przetwarzania równoległego. W konsekwencji ich udział w potrzebnych zasobach sprzętowych staje się znaczący. W literaturze opisano wiele architektur kwantyzacji i dekwantyzacji [3-17]. Większość z nich stosuje bezpośrednie mapowanie kolejnych operacji na kaskadę złożoną z układu mnożące... więcej»

Analiza wymagań pamięciowych dla podstawowej jednostki obliczeniowej w sprzętowej implementacji algorytmu dopasowania stereo typu "semiglobal" (Mikołaj Roszkowski, Grzegorz Pastuszak)
Algorytm dopasowania stereo działa na dwóch zrektyfikowanych obrazach przedstawiających jedną scenę. Rektyfikacja oznacza, że jeśli weźmie się pewien piksel na pierwszym obrazie, to odpowiadający mu piksel na drugim obrazie leży dokładnie w tej samej linii poziomej (o tej samej współrzędnej y). Bezwzględna wartość różnicy współrzędnych x odpowiadających sobie pikseli nazywana jest dysparycją i można wykazać że jest ona odwrotnie proporcjonalna do głębokości obiektu w scenie [1]. Celem algorytmu stereowizji jest przypisanie wartości dysparycji do każdego piksela i stworzenie tzw. mapy dysparycji. W literaturze znanych jest wiele algorytmów stereowizji. Generalnie można je podzielić na dwie grupy [2]: algorytmy decydujące jaka dysparycja powinna zostać przypisana do piksela tylko na podstawie jego najbliższego otoczenia (algorytmy lokalne), bądź na podstawie pewnej funkcji zdefiniowanej na całym obrazie (algorytmy globalne). Do pierwszej grupy należą np. algorytmy bazujące na dopasowaniu okna wokół piksela w jednym obrazie do pewnego okna w drugim obrazie za pomocą miar takich jak m.in. SAD [2], CENSUS [3]. Algorytmy te ze względu na swoją prostotę doczekały się wielu realizacji w układach FPGA. Ich implementacje są zazwyczaj szybkie, np. w [4] zaprezentowano system będący w stanie przetwarzać w sekundzie 230 ramek o rozdzielczości 640x480 i 64 poziomach dysparycji. Wadą algorytmów z tej grupy jest jednak zwykle gorsza jakość uzyskanej mapy dysparycji niż w przypadku algorytmów globalnych. W przypadku algorytmów globalnych najpopularniejsze bazują na "propagacji wierzeń" (belief-propagation) [5], bądź algorytmach" graph-cuts" [6]. Są to algorytmy bardzo wymagające pod względem obliczeniowym i przez to rzadko implementowane w sprzęcie. Istnieje jednak grupa algorytmów znajdująca się pomiędzy algorytmami globalnymi i lokalnymi. Są one oparte o programowanie dynamiczne na pewnym podzbiorze całego obrazu. Algorytmem z tej grupy da... więcej»

Cechy barier elektromagnetycznych w ochronie podzespołów i urządzeń radioelektronicznych przed skutkami oddziaływania impulsu elektromagnetycznego dużej mocy (Marian WNUK, Zdzisław CHUDY)
Cechą charakterystyczną współczesnych urządzeń radioelektronicznych jest ich ograniczona odporność na oddziaływanie napięć i prądów udarowych dochodzących do tych urządzeń z sieci zasilającej lub linii przesyłu sygnałów, a pochodzących od energii zakłóceń i zaburzeń promieniowanych bądź przewodzonych. Powstające przepięcia i przetężenia są przyczyną utraty sprawności pojedynczych lub grupy podzespołów, a tym samym funkcjonalności danego urządzenia bądź całego systemu. Największe zagrożenie dla utrzymania sprawności technicznej i pełnej funkcjonalności współcześnie eksploatowanych urządzeń radioelektronicznych stanowi impuls elektromagnetyczny dużej mocy zakresu mikrofal, który można generować przy wykorzystaniu celowo zbudowanych generatorów mikrofal dużej mocy. Efektem oddziaływania może być czasowe lub częściowe obezwładnienie techniczne z uszkodzeniem włącznie. Podstawowa metoda ochrony bądź zminimalizowania ryzyka uszkodzeń to właściwe zastosowanie barier elektromagnetycznych. Dostępne systemy ekranujące znacząco różnią się między sobą pod względem skuteczności i opłacalności. Większość z nich jest zbyt skomplikowana w montażu i zaawansowana technologicznie, przez co zbyt droga. Współczesne zagrożenia elektromagnetyczne Niejonizujące pola elektromagnetyczne to jeden z bardziej tajemniczych i budzących niepokój czynników fizycznych występujących w środowisku człowieka. Towarzyszą one człowiekowi od momentu, w którym nauczono się wytwarzać energię elektryczną, a następnie przesyłać ją przy pomocy prądu elektrycznego. Obecnie obserwuje się systematyczny wzrost sztucznych źródeł promieniowania elektromagnetycznego (PEM), tj. celowo wytwarzanych przez człowieka. Głównym powodem, dla którego PEM jest obiektem zainteresowania badaczy jest to, że jest ono formą energii. Energia ta rozprzestrzenia się z prędkością światła w postaci promieniowania elektromagnetycznego. Kiedy w polu PEM znajdzie się obiekt materialny (np. człowiek)... więcej»

Wykorzystanie sieci akustycznych w pasywnej lokacji obiektów (Stanisław GRZYWIŃSKI, Dariusz RODZIK, Jan PIETRASIEŃSKI)
Obecnie można wyróżnić dwa podejścia do organizacji systemów akustycznej lokalizacji: systemy scentralizowane i zdecentralizowane. Pierwsza grupa systemów posiada obniżoną zdolność detekcyjną szczególnie w terenie zurbanizowanym, w którym występuje zjawisko echa, wielodrogowości, a przede wszystkim braku bezpośredniej "widoczności źródła zaburzenia. Dla przykładu, jeśli z pewnych przyczyn kilka czujników zarejestruje sygnał odbity od przeszkody terenowej lub nie zarejestruje w ogóle zaburzenia, to dochodzi do sytuacji, gdzie system nie posiadając wystarczającej ilości danych w najlepszym przypadku wykryje zdarzenie lecz wskaże błędną pozycję źródła zaburzenia (rys. 1a). Oprócz ograniczenia zastosowań w zurbanizowanym terenie występuje również problem lokacji wielu źródeł. Powyższe problemy spowodowały zmianę dotychczasowego podejścia do zagadnienia akustycznej lokacji szczególnie przy zastosowaniu ich w terenach zurbanizowanych. Korzystnym rozwiązaniem zdaje się stosowanie dużej liczby czujników, rozmieszonych na pewnym obszarze. Systemy tego typu bazują na informacjach zgromadzonych na podstawie fuzji danych zarejestrowanych z sieci nodów. Zastosowanie takiej koncepcji systemu ma wiele zalet. Mianowicie wykorzystanie większej ilości sensorów skutkuje zwiększoną dokładnością całego systemu oraz większą niezawodnością detekcji zaburzeń w środowisku, gdzie występuje wysoki udział przeszkód terenowych. Oprócz tego poszczególne nody mogą być mniej dokładne, gdyż informacja o zaburzeniu ośrodka wywołanego np. strzałem z broni palnej, jest zbierana z większego obszaru oraz z większej ilości czujników niż ma to miejsce w przypadku układu scentralizowanego. Zwiększona baza pomiarowa może również zostać wykorzystana do zmniejszenia wymagań w przypadku przetworników analogowo-cyfrowych oraz procesora, przy zachowaniu dokładności wyznaczania pozycji. Powyższe przesłanki stały się podstawą przy projektowaniu systemów lokacji akustyczne... więcej»

Kształtowanie szumu w fonicznych przetwornikach a/c i c/a sigma-delta (MARCIN LEWANDOWSKI, ZBIGNIEW KULKA)
Szczególnie istotną rolę w systemach zapisu i odtwarzania dźwięku, określanych jako systemy hi-fi (high-fidelity), odgrywają wielobitowe (16-24-bitowe) przetworniki analogowo-cyfrowe (a/c) i cyfrowo-analogowe (c/a), pracujące z częstotliwościami próbkowania do 96/192 kHz, tworzące odrębną klasę przetworników fonicznych (audio converters) [1]. Przetworniki a/c i c/a działające z wykorzystaniem modulacji impulsowo-kodowej (PCM - pulse-code modulation), zwane powszechnie konwencjonalnymi przetwornikami PCM są stosowane w cyfrowej technice fonicznej od początku jej rozwoju. Przetwarzanie analogowego sygnału fonicznego na sygnał cyfrowy metodą kodowania PCM polega na wykonaniu trzech zasadniczych operacji: próbkowania równomiernego (ze stałym okresem próbkowania), wielobitowego kwantowania liniowego (ze stałym krokiem kwantowania) i kodowania. Wynikiem przetwarzania jest cyfrowy sygnał foniczny w formacie PCM, charakteryzowany przez częstotliwość próbkowania fS i rozdzielczość słów wyjściowych N w bitach. Przetworniki PCM mogą pracować z częstotliwością próbkowania (szybkością) Nyquist’a fN (Nyquist-rate PCM converters), tj. fS ≥ fN = 2·fm, gdzie fm jest pasmem analogowego sygnału wejściowego. Częściej jednak pracują z nadpróbkowaniem (oversampled PCM converters) i wówczas częstotliwość próbkowania fS = L·fN, gdzie L jest współczynnikiem nadpróbkowania (oversampling ratio) równym fS /(2·fm ), którego wartości mogą wynosić 2, 4, 8 lub 16. Choć nadpróbkowanie umożliwia zwiększenie stosunku sygnału do szumu SNR (signal-to-noise ratio) oraz uproszczenie konstrukcji analogowych filtrów dolnoprzepustowych (FDP) na wejściu przetwornika a/c (ochronnego, antyaliasingowego) i wyjściu przetwornika c/a (rekonstruującego, antylustrzanego), to jednak pociąga za sobą konieczność użycia cyfrowego filtru decymacyjnego na wyjściu przetwornika a/c i cyfrowego filtru interpolacyjnego na wejściu przetwornika c/a. Foniczne p... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Poszukiwanie rozwiązań problemu plecakowego z wykorzystaniem algorytmu genetycznego (Zbigniew Handzel, Mirosław Gajer )
Problem plecakowy należy do klasy problemów NP -zupełnych. Zagadnienia określane mianem NP -zupełnych stanowią klasę problemów obliczeniowych, w przypadku których nie jest znany żaden algorytm rozwiązujący dowolny z tego rodzaju problemów w czasie wielomianowym. Co interesujące, jak dotychczas nikomu nie udało się jeszcze udowodnić, że taki algorytm rozwiązujący któreś z zagadnień NP -zupełnych w czasie wielomianowym nie istnieje. Problem zagadnień NP -zupełnych jest zatem nadal otwarty i wciąż czeka na swe ostateczne rozwiązanie, stanowiąc tym samym chyba najbardziej doniosłą i zarazem jakże niezwykle intrygującą zagadkę informatyki teoretycznej [1]. Co ciekawe, wszystkie problemy obliczeniowe należące do zbioru zagadnień NP -zupełnych są wzajemnie równoważne w tym sensie, że każdy z nich można przetransformować do dowolnego innego w czasie wielomianowym. W związku z tym, gdyby został znaleziony algorytm rozwiązujący w czasie wielomianowym dowolny z problemów NP -zupełnych, wówczas automatycznie wszystkie pozostałe zagadnienia NP -zupełne byłby także rozwiązywalne w czasie wielomianowym. Niestety, jak już uprzednio wspomniano, nikomu nie udało się jeszcze odnaleźć takiego algorytmu bądź udowodnić, że jego znalezienie nie jest możliwe. Istniejący stan rzeczy powoduje, że na potrzeby praktycznych obliczeń zagadnienia NP -zupełne są rozwiązywane jedynie metodami heurystycznymi. W takim wypadku już z góry godzimy się z faktem, że rozwiązanie optymalne nigdy nie zostanie odnalezione, ponieważ prawdopodobieństwo jego przypadkowego natrafienia w procesie poszukiwań wynosi praktycznie zero (choć teoretycznie nie jest to zdarzenie niemożliwe). Natomiast w praktyce poszukujemy rozwiązań suboptymalnych o możliwie jak najlepszej jakości [2]. Tematyka artykułu dotyczy wykorzystania algorytmu genetycznego w celu poszukiwania rozwiązań zagadnienia plecakowego, które należy do klasy problemów NP -zupełnych. Problem plecakowy Załóżmy, że... więcej»

Rozporządzenie eIDAS - na pograniczu technologii i prawa (Daniel Wachnik )
W wyniku prac regulujących obszar podpisu elektronicznego została wydana Dyrektywa 1999/93/WE dotycząca wspólnotowych ram podpisu elektronicznego [1]. W trakcie 10-ciu lat obowiązywania Dyrektywy nie odnotowano oczekiwanego nasycenia rynku podpisów elektronicznych. W roku 2008 Komisja Europejska zaadoptowała plan działań w zakresie e-podpisu i e-identyfikacji, który zaowocował między innymi wytworzeniem raportów CRO - BIE S [2]. Raporty CRO BIE S stanowiły istotny wkład przy określeniu zakresu mandatu standaryzacyjnego M/460, wydanego w 2009 roku przez Komisję Europejską. Mandat ten miał na celu uporządkowanie standardów związanych z szeroko pojętymi usługami zaufania.Początkowo, rozważano zastosowano możliwość nowelizacji Dyrektywy 1999/93/EC , jednak w na podstawie analiz postanowiono, że najkorzystniejszym aktem prawnym, z punktu widzenia harmonizacji usług jest Rozporządzenie unijne. Draft rozporządzenia został opublikowany przez Komisję Europejską w dniu 04.06.2012 roku [3], a sam fakt publikacji został po raz pierwszy ogłoszony publicznie w Polsce, w trakcie konferencji EFPE . Warto nadmienić, że Rozporządzenie Unii Europejskiej jest aktem prawnym zasadniczo różniącym się od Dyrektywy. O ile Dyrektywa jest implementowana przez kraje członkowskie w prawie krajowym, o tyle Rozporządzenie nie pozostawia tego rodzaju swobody. Rozporządzenie jest stosowane bezpośrednio. Zastosowanie tego rodzaju aktu oznacza z jednej strony brak rozbieżności na poziomie krajów członkowskich, ale oznacza także, że państwa członkowskie nie mają możliwości korygowania tych przepisów, które z ich punk-tu widzenia są uciążliwe. Przykładowo, jeśli zapisy rozporządzenia będą wykluczać możliwość zastosowania w kontaktach z administracją publiczną określonego rodzaju mechanizmu, nie będzie można stosować tego mechanizmu, bez względu na fakt jakie koszty z tego powodu będzie musiało poni... więcej»

Toshiba AT10A-103
Firma Toshiba Europe, oddział w Warszawie, udostępniła naszej redakcji swój nowy tablet oznaczony AT10A-103. Tablet jest przenośnym komputerem większym nieco niż telefon komórkowy, którego główną, widoczną cechą jest duży ekran dotykowy (Multi-Touch). W przeciwieństwie do większości klasycznych urządzeń tablety nowszego typu nie mają fizycznej klawiatury, użytkownik posługuje się klawiaturą wirtualną dotykając ekranu palcem.W odróżnieniu od kompu... więcej»

Nieinwazyjna metoda oznaczania glukozy w badaniach cukrzycy (Dagmara Kwapińska, Artur Rydosz, Wojciech Maziarz, Tadeusz Pisarkiewicz, Konstanty W. Marszałek, Beata Olszańska-Piątek)
Cukrzyca w Polsce i na świecie Na całym świecie blisko 347 milionów ludzi żyje ze zdiagnozowaną cukrzycą. W 2004 roku z powodu powikłań wywołanych przez cukrzycę zmarło ok. 3,4 miliona ludzi. Według przewidywań Światowej Organizacji Zdrowia (ang. World Health Organization) w 2030 roku cukrzyca będzie na siódmym miejscu w rankingu chorób bezpośrednio wywołujących śmierć [1]. Szacunkowa liczba osób chorych na cukrzycę w Polsce oscyluje wokół 3 milinów, a liczba osób niezdiagnozowanych szacowana jest na ok. 750 tys. [2]. Powikłania wywoływane przez nieleczoną cukrzycę to: powikłania sercowe (75%), udary mózgu (14%), choroby nerek (8%), choroby oczu (1%) [3]. Cukrzyca jest chorobą metaboliczną związaną z metabolizmem cukrów. Spowodowana jest brakiem bądź niedostateczną ilością insuliny. Generalnie rozróżniamy dwa typy cukrzycy: typ 1 i typ 2. Znany jest jeszcze typ 1.5 oraz cukrzyca ciążowa [4]. Typ 1 (cukrzyca insulinozależna) stanowi ok. 10% wszystkich przypadków zachorowań na świecie. Charakteryzuje się bezwzględną koniecznością przyjmowania insuliny [5]. Symptomy cukrzycy typu 1 to m.in. wzmożone pragnienie, bardzo częste oddawanie moczu, szybkie chudnięcie osoby, która nie jest na diecie, senność, brak apetytu, suchość skóry [6]. Cukrzyca typu 2 (insulinoniezależna) stanowi zdecydowaną większość wszystkich zachorowań na cukrzycę. Dotyka ona ludzi w każdym wieku i określana jest jako choroba cywilizacyjna [1]. W przeciwieństwie do cukrzycy typu 1 nie jest związana z całkowitym brakiem insuliny w organizmie a jedynie z jej niedoborem (ograniczonym produkowaniem insuliny przez trzustkę). W przypadku cukrzycy typu 2 początkowe objawy nie są tak jednoznaczne i często bywają ignorowane. Szacuje się, że blisko 30% ze wszystkich cukrzyków w Polsce żyje jako osoby niezdiagnozowane. Objawy takie jak: suchość skóry, senność, zaburzenie widzenia, zaburzenia erekcji są bardzo często ignorowane. Badania cukru, które wykonuje się metodam... więcej»

Investigation of the reflective properties of layered antiferromagnetic-dielectric structures (Anton ARKHIPOV, Vladimir GNATUSHENKO)
The terahertz radiation is an interesting, important, and actively investigated frequency region. Development of this range is limited by a lot of reasons and one of them is a deficiency in a component base [1]. Non-reciprocity based on the non-Faraday effects is presented in this work. There are various ways to obtain nonreciprocal properties for anisotropic layered structures. One way is to use a well-known Faraday rotation effect, such as in optical isolators described in [2]. The handedness of this rotation depends on the propagation direction. In the terahertz region Faraday rotation in the ferrofluid at the room temperature was described in the work [3]. The electrically tunable Faraday effect in HgTe thin film is presented in [4]. Electrical control of the room-temperature Faraday effect was described there. High speed amplitude and phase modulators based on such structures were proposed in that paper. Near-infrared Faraday rotation in antiferromagnetic was described for example in paper [5] where laser pulse translation and signal transients in FeBO3 were observed as functions of sample temperature. Next way to obtain nonreciprocal properties is using nonlinear materials in heterostructures. For example in [6] the heterostructures based on the piezoelectric and semiconductor layers was proposed for radio-frequency application. Surface acoustic wave isolator based on two physical phenomena - strongly nonlinear interaction and drifting electron system was proposed here. Another examples of nonreciprocal properties of nonlinear devises in terahertz region was presented in paper [7] where a Faraday isolator operating on the coupled microwave resonators circuit. Another way is to use nature non-reciprocity of anisotropic materials. These properties are widely investigated and described later. For example non-reciprocity reflection in semi-infinitive layered magnetic-dielectric structures is described in [8]. Properties asso... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Meander monopole LTCC antenna for ISM 2.4 GHz (Jan Macioszczyk, Arkadiusz Dąbrowski, Piotr Słobodzian, Leszek Golonka)
Rapid and progressive growth of wireless communication, especially mobile telephony and positioning systems, creates a need for exploration of electromagnetic spectrum in high frequencies (microwaves and millimeter waves). Therefore, modern technical solutions should be multifunctional and hence multiband (in terms of operating frequency) as well as of small size, good quality and reliable [1]. Integrated microwave systems are manufactured using silicon, thin film and LTCC technologies [2]. All of the mentioned technologies are suitable for manufacturing micro- and millimeter waves components, with comparable good electrical parameters. In this paper design, manufacturing and measurements of the microwave monopole antennas are described. Measurements of S11 parameter, comparison between experiment and simulations, tuning of antenna and discussion is presented. Design of the antenna The antenna was designed and manufactured in the LTCC technology. The desired fr... więcej»

Recycling of electronic waste - new approach (Marcin Szwech, Michał Kotarba, Małgorzata Jakubowska )
Currently the need for more efficient recycling of electronic waste becomes more apparent. One of the main factors for this is the rapid technology development in last few decades. New generation of electronic devices became more rapid than ever before thus shortening the life span of electronic parts from 4-6 years at the end of XX century to 2 years in first decade of XXI century. If this rate would continue to increase, within next few decades new generation of electronics will be release to market every few months. Economical and social aspects This current situation already significantly increased generation of electronic waste in turn raising new environmental issues. One of those issues is the placement of the waste. In the light of current EU legislation, directive 1999/31/EC, that states“to prevent or reduce as far as possible negative effects on the environment, in particular the pollution of surface water, groundwater, soil and air, and on the global environment, including the greenhouse effect, as well as any resulting risk to human health, from the landfilling of waste, during the whole life-cycle of the landfill"... więcej»

60-lecie pracy na rzecz rozwoju elektroniki półprzewodnikowej w Polsce - wspomnienia (Jerzy Klamka)
Moje wspomnienia wiążą się głównie z początkiem prac badawczych w dziedzinie elektroniki półprzewodnikowej w kraju, ale też z różnymi utrudnieniami i przeszkodami na drodze jej rozwoju. Już jako student Politechniki Warszawskiej Wydziału Łączności (obecnie Wydział Elektroniki i Technik Informacyjnych) miałem szczęście trafić do Zakładu Elektroniki Instytutu Podstawowych Problemów Techniki PAN, aby w1953 r. wykonać tam inżynierską pracę dyplomową. Zakładem kierował prof. dr inż. Janusz Groszkowski, inicjator badań w dziedzinie przyrządów półprzewodnikowych. Temat mojej pracy dyplomowej wzbudził duży niepokój, gdyż dotyczył wykonania diody w oparciu o półprzewodnik międzymetaliczny. Podczas studiów inżynierskich nie słyszałem o istnieniu półprzewodników, a specjalnością wyuczoną była konstrukcja i technologia lamp elektronowych. Wkrótce niepokój minął, gdyż Profesor pomagał i stwarzał wspaniałą atmosferę do pracy. Doceniał inicjatywę pracowników i ich wspierał, a także wyróżniał za dobre wyniki, czego później, jako Jego etatowy pracownik, doświadczyłem. Miałem szczęście opracowywać i wprowadzać do praktyki pierwsze polskie różnego rodzaju przyrządy półprzewodnikowe. Zaczynała się era elektroniki półprzewodnikowej. Zakład Elektroniki był w trakcie organizacji i początki pracy były bardzo trudne. Brak było podstawowej aparatury technologicznej, pomiarowej a nawet wystarczającej ilości mebli. Przede wszystkim brak było dostatecznej wiedzy dotyczącej półprzewodników. Wszyscy pracownicy uczyli się czytając dostępną literaturę, która była tylko w języku angielskim. Niestety, znałem tylko język niemiecki, którego zacząłem uczyć się już w czasie okupacji (była to decyzja Ojca, płk WP, który twierdził, że trzeba znać język wroga). Trzeba było wiec szybko uczyć się języka angielskiego, do czego zachęcał Profesor. Stopniowo warunki pracy poprawiały się, potrzebna aparatura technologiczna i pomiarowa wykonywana była na miejscu. Można było ... więcej»

Przekład komputerowy typu Human-Aided Machine Translation oparty na języku pośredniczącym (Zbigniew Handzel, Mirosław Gajer)
Przekład komputerowy jest interdyscyplinarną dziedziną wiedzy zaliczaną w skład szerszej dyscypliny - lingwistyki komputerowej. Za historyczny początek badań nad automatyzacją przekładu uznaje się wystąpienie w 1947 roku Amerykanina Warrena Weavera, który w swym słynnym memorandum wzywał wybitnych badaczy tamtej epoki do zajęcia się tą niezwykle pasjonującą, ale także niezmiernie skomplikowaną problematyką [1]. Pierwsza grupa badawcza zajmująca się automatyzacją przekładu została powołana na amerykańskim uniwersytecie MIT w 1952 roku. Z kolei w roku 1954 miał miejsce pierwszy, spektakularny, jak na owe czasy, pokaz działającego systemu komputerowego przekładu. Podczas rozważanego pokazu komputer dokonał automatycznego tłumaczenia kilkudziesięciu prostych zdań zapisanych w języku rosyjskim na język angielski. Na fali entuzjazmu, który zapanował po tym wydarzeniu, pojawiły się opinie, że w już niedalekiej przyszłości zawód tłumacza stanie się całkowicie zbyteczny, ponieważ cała dotychczasowa działalność translatorska zostanie powierzona komputerom [2]. Obecnie od omawianych wydarzeń upłynęło już prawie sześćdziesiąt lat, a stawiane wówczas prognozy bynajmniej jeszcze się nie spełniły. Przykład ten dowodzi, jak niezwykle trudną sprawą jest przewidywanie przyszłości i że tak na prawdę nigdy nie będziemy w stanie dokładnie przewidzieć naszej przyszłej wiedzy i bezpośrednio wynikającego z niej poziomu zaawansowania wybranych rozwiązań technicznych [3]. Dostępne w epoce nam współczesnej rozwiązania informatyczne w zakresie automatyzacji przekładu koncentrują się głównie wokół systemów w pełni automatycznych FAMT (ang. Fully-Automatic Machine Translation), w przypadku których ich użytkownik zadaje na wejście tekst zapisany w języku źródłowym, a na wyjściu tego rodzaju systemu oczekuje pojawienia się po pewnym czasie gotowego już przekładu tekstu wyjściowego na język docelowy. Niestety, jakość istniejących obecnie w pełni automatycz... więcej»

Przegląd formatów podpisu elektronicznego (Robert Poznański, Karol Szacki, Daniel Wachnik, Łukasz Stroiński)
Aktualnie na rynku podpisu elektronicznego uzyskują duże znaczenie cztery standardy definiujące w jaki sposób zapisać podpis elektroniczny. Są nimi CAdES, XAdES, PAdES oraz ASiC opisane w standardach wydawanych przez ETSI (European Telecommu- nications Standards Institute). Są to standardy opisujące tzw. zaawansowany podpis elektroniczny, który wyróżnia się tym, że spełnia wymagania dotyczące takiego rodzaju podpisu zdefiniowane w Dyrektywie 99/93/WE. W każdym podpisie elektronicznym muszą zostać zawarte podstawowe informacje identyfikujące podpisującego, oraz o przyjętej technice jego wygenerowania. Zalecane jest także załączenie certyfikatu użytego do złożenia podpisu. W strukturze samego podpisu zawierają się również odnośniki do danych, które są takim podpisem opatrzone. Wszystkie te informacje są wykorzystywane w czasie procesu weryfikacji ważności podpisu. Aplikacja weryfikująca musi odczytać informacje zawarte w pliku z podpisem. Zestandaryzowanie oraz określenie miejsc w jakich się znajdują informacje, umożliwia rozpoznawanie podpisu pomiędzy aplikacjami. Dla przykładu, konieczne jest zawarcie informacji jaka została użyta funkcja skrótu, najczęściej jest to funkcja z rodziny SHA [1] oraz jaki jest algorytm podpisu, obecnie powszechnie stosowany jest algorytm RSA [2] z długością klucza 2048 bitów. Informacje zawarte w certyfikacie pozwolą na zbudowanie i zweryfikowanie ścieżki certyfikacji. Mogą także wskazywać mie... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»