profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA


(ang. ELECTRONICS - CONSTRUCTIONS, TECHNOLOGIES, APPLICATIONS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
rok powstania: 1960
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Jest to miesięcznik naukowo-techniczny poświęcony problematyce związanej z elektroniką, od konstrukcji i technologii do zastosowań. Czytelnik znajdzie w nim artykuły zarówno o charakterze teoretycznym, jak i praktycznym, a także prez... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 491,76 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 442,58 zł *)
prenumerata papierowa roczna - 403,20 zł
prenumerata papierowa półroczna - 201,60 zł
prenumerata papierowa kwartalna - 100,80 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2014-9

zeszyt-4162-elektronika-konstrukcje-technologie-zastosowania-2014-9.html

 
W numerze m.in.:
Diody Schottky‘ego i tranzystory MESFET na bazie In-Ga-Zn-O z przezroczystą bramką Ru-Si-O (Jakub Kaczmarski, Jakub Grochowski, Eliana Kamińska, Andrzej Taube, Maciej Kozubal, Wojciech Jung, Anna Piotrowska, Elżbieta Dynowska)
Przezroczyste amorficzne półprzewodniki tlenkowe (ang. Transparent amorphous oxide semiconductors, TAOS), w tym tlenek indowo-galowo-cynkowych (a-IGZO), to materiały szerokoprzerwowe łączące cechy wysokiej transmisji optycznej z kontrolowanym przewodnictwem elektrycznym [1, 2]. Grupa przezroczystych amorficznych półprzewodników tlenkowych budzi uzasadnione zainteresowanie badawcze oferując szeroki wachlarz potencjalnych zastosowań - od przezroczystych przyrządów półprzewodnikowych i układów elektronicznych do całej gamy sensorów biomedycznych i optoelektronicznych, wytwarzanych zarówno na sztywnych jak i giętkich podłożach [3, 4]. Jednym z głównych wyzwań tej technologii jest wytworzenie niezawodnych kontaktów Schottky’ego, które umożliwiłyby rozwój przezroczystych cienkowarstwowych tranzystorów polowych ze złączem metal-półprzewodnik (ang. Metal-Semiconductor Field-Effect Transistor, MESFET). Niezawodne, przezroczyste kontakty Schottky’ego do przezroczystych półprzewodników tlenkowych powinny być wysokoprzewodzące, odporne na utlenianie oraz cechować się wysoką transmisją optyczną. Podczas osadzania metalizacji na powierzchnię TAOS, ze względu na powinowactwo chemiczne do tlenu, dochodzi do dyfuzji atomów O z półprzewodnika do obszaru przypowierzchniowego. Powoduje to powstanie zlokalizowanych stanów pułapkowych na interfejsie metal-półprzewodnik. W efekcie dochodzi do zwężenia obszaru zubożonego, zwiększając prawdopodobieństwo tunelowania nośników przez barierę potencjału [5, 6]. W celu przywrócenia stechiometrii obszaru przypowierzchniowego stosuje się dodatkowe procesy technologiczne, takie jak obróbka plazmą tlenową oraz wygrzewanie w atmosferze utleniającej przed osadzeniem metalizacji. Alternatywne podejście zakłada wykorzystanie, w roli bariery Schottky’ego, tlenków metali, których skład atomowy jest skuteczny w zapobieganiu dyfuzji tlenu w obszarze złącza [7-9]. W dotychczasowych pracach dotyczącyc... więcej»

Oscylacyjny model sieci neuronowej jako system wbudowany (Wiesław Citko, Wiesław Sieńko )
Celem niniejszego artykułu jest prezentacja pewnego neuromorficznego modelu systemu inteligencji obliczeniowej. Model taki uzyskano przez wbudowanie filtru ortogonalnego, wykorzystującego strukturę hamiltonowskiej sieci neuronowej, w sieć sprzężonych pętli fazowych. Koncepcja wykorzystującą sieci sprzężonych oscylatorów fazowych do implementacji oscylujących modeli neuromorficznych nie jest nowa [1, 2, 3, 4]. Wydaje się jednak, że w/w koncepcja struktury wbudowanej nie jest opisana w literaturze przedmiotu. Hamiltonowskie sieci neuronowe i filtry ortogonalne Jak wiadomo, autonomiczny system hamiltonowski opisany jest równaniem stanu o postaci: (1) gdzie: x - wektor stanu, ... więcej»

Międzynarodowy Rok Światła 2015 (Ryszard S. Romaniuk)
Wydarzenie bez precedensu - Międzynarodowy Rok Światła 2015 jest interdyscyplinarnym projektem edukacyjnym i popularyzacyjnym, o charakterze globalnym, firmowanym przez UNESCO a organizowanym na całym świecie przez ponad 100 głównych partnerów, w postaci uznanych instytucji naukowych i technicznych, uczelni, stowarzyszeń zawodowych, fundacji, organizacji pozarządowych, oraz internetowych portali społecznościowych. Etymologia słowa światło jest prawdopodobnie prehistoryczna, łacińskie lux, greckie φως, ale także divine light, fiat lux. Słowo optyka [ὀπτική] natomiast, wywodzi się ze starożytnej Grecji i oznacza "wygląd". Głównym nurtem tematycznym MRŚ2015 będzie zapewne oświetlenie. Z jednej strony mamy do czynienia z gwałtownie zagęszczającym się oświetleniem w obszarach wysoce zurbanizowanych w krajach rozwiniętych, wręcz z problemem zanieczyszczenia środowiska sztucznym światłem w pewnych obszarach, a z drugiej strony należy pamiętać, że ponad 25% ludzkości świata żyje całkowicie poza zasięgiem sieci elektrycznej. Światło - jeśli oświetlenie to i niedoświetlenie. Zagadnieniem niedoświetlenia strukturalnego (zaniedbanie?, wstydliwy problem, ale także wyzwanie) wielu regionów naszej planety zajmuje się efektywnie, w miarę swoich możliwości, stowarzyszenie GOGLA [Gobal-Off-Grid-Lighting- Association.org]. W Polsce aktywnym uczestnikiem MRŚ2015, i koordynatorem części działań naukowo-technicznych NT środowiska, jest Polskie Stowarzyszenie Fotoniczne [photonics.pl]. Światło i życie. Światło pełni kluczową rolę w życiu człowieka. Światło wykształciło nasz zmysł wzroku. Bez światła nie istniałoby nasze środowisko życia. Słońce jest głównym źródłem światła dla nas. 44% energii elektromagnetycznego promieniowania słońca, które dochodzi do Ziemi, znajduje się w zakresie widzialnym (umownie zakres długości fal - 400-700 nm). Technologie bazujące na świetle, określane nazwą fotonika, de... więcej»

Increasing performance of integrated sub-GHz IEEE 802.15.4 compatible radio transceivers (Łukasz Krzak, Cezary Worek)
The IEEE 802.15.4 specification [1] is one of the most important standards describing low-rate and short range wireless area networks. It constitutes a common basis for several commercially available and well-recognized radio communication protocols such as ZigBee family of protocols (including ZigBeeIP), WirelessHART, ISA 100.11a and 6LoWPAN [5]. In terms of the ISO OSI layers, the IEEE 802.15.4 specification defines the physical layer (PHY) and medium access control (MAC) sublayer, on top of which the previously mentioned protocols are built. During the last 10 years of development, the standard was amended several times to include new PHY options. Currently the standard defines many frequency channels and modulation options including ASK, BPSK, O-QPSK, GFSK, OFDM, CSS (chirp spread spectrum) and UWB (ultra-wide band), however not all of them gained much industry attention. Table 1 gathers some of the most popular PHYs, present in the currently commercially available radio transceivers, along with their availability in different regions of the world [3]. There are many IEEE 802.15.4 compatible transceivers available on the market, however the great majority of them are designed for operation in the 2.4 GHz band utilizing the O-QPSK PHY. The sub-GHz bands are less popular, however their main advantage over the 2.4 GHz band is better propagation and material penetration. Also, in the IEEE 802.15.4g-2012 amendment, several new sub-GHz PHYs were introduced, including 169 MHz band to standardize smart utility networks (SUNs), such as those used for advanced metering infrastructure (AMI). Although the 2.4 GHz PHYs are dominant in consumer applications, the sub-GHz remains important in industrial areas where quality of service is essential. The final data transmission reliability is, however, a product of several qualities, including those resulting from hardware design as well as software implementation. In this article the autho... więcej»

Cienkie warstwy ZnO wytwarzane techniką magnetronowego rozpylania katodowego: mikrostruktura i funkcjonalność (Michał Borysiewicz, Marek Wzorek, Krystyna Gołaszewska, Eliana Kamińska, Anna Piotrowska)
Tlenek cynku (ZnO) jest półprzewodnikiem o strukturze krystalicznej wurcytu, charakteryzującym się szeroką przerwą energetyczną (3,4 eV), wysoką energią wiązania ekscytonów (60 meV) i łatwością domieszkowania typu n. Własności te czynią go obiektem intensywnych badań nad zastosowaniami w przezroczystej elektronice [1], optoelektronice [2-4] i fotowoltaice [5-7]. Dzięki aktywnej chemicznie powierzchni stosowany jest w czujnikach [8-10]. Podobieństwo pod względem szerokości przerwy wzbronionej, struktury krystalicznej i stabilności termicznej sprawia, że ZnO jest naturalnym kandydatem do integracji z GaN i 4H-SiC. W celu pełnego wykorzystania jego potencjału na skalę przemysłową niezbędne jest zastosowanie technik wytwarzania kompatybilnych z rygorami produkcyjnymi dotyczącymi wysokiego stopnia kontroli nad strukturą i składem chemicznym wytwarzanego materiału przy relatywnie niskich kosztach. Techniką spełniającą te warunki jest magnetronowe rozpylanie katodowe (ang. sputtering). Najnowsze rozwiązania technologiczne dla magnetronowego rozpylania katodowego umożliwiają niespotykaną wcześniej kontrolę jakości i morfologii wytwarzanych warstw materiałowych. Kontrola ich czystości i składu chemicznego możliwa jest dzięki zastosowaniu wydajnych systemów pompowania, umożliwiających osiągnięcie ultra wysokiej próżni oraz wysokiej czystości gazów procesowych i tarcz stosowanych do rozpylania materiałów. Zastosowanie w reaktorach rozpylania katodowego ceramicznych grzejników pozwala na dostarczenie dodatkowej energii do osadzanych cząstek, skutkując osiąganiem wysokiej jakości krystalograficznej. Rozbudowane narzędzia diagnostyki umożliwiają dokładne zrozumienie i projektowanie procesów osadzania. W niniejszym artykule omówione zostaną możliwości kontroli mikrostruktury i funkcjonalności cienkich warstw ZnO jakie daje najnowszej generacji reaktor magnetronowego rozpylania katodowego. W szczególności, artykuł zostanie podzielony na dwi... więcej»

Zobacz wszystkie publikacje »

2014-8

zeszyt-4136-elektronika-konstrukcje-technologie-zastosowania-2014-8.html

 
W numerze m.in.:
Właściwości fotokatalityczne wielowarstwowych powłok antyrefleksyjnych (Damian Wojcieszak, Michał Mazur, Jarosław Domaradzki, Danuta Kaczmarek, Frank Placido, Shigeng Song)
Rola powłoki antyrefleksyjnej (AR) polega na minimalizowaniu odbić światła od powierzchni podłoża na które została naniesiona. Jej działanie oparte jest na zjawisku interferencji światła (wygaszanie odbitych fal o jednakowej amplitudzie, ale przesuniętych w fazie). Z kolei wielowarstwowe powłoki AR wykorzystują efekt wielokrotnej interferencji. Składają się one z wielu naprzemiennie ułożonych warstw o różnych grubościach, wykonanych z materiałów o różnych właściwościach optycznych [1-4]. Istotnym parametrem optycznym cienkich warstw stosowanych w konstrukcji powłok optycznych jest zwłaszcza wartość współczynnika załamania światła (n) [1, 2]. Na rysunku 1 przedstawiono przykładowe charakterystyki cienkich warstw TiO2 i SiO2, które są powszechnie stosowane do wytwarzania m.in. powłok antyrefleksyjnych. Są to materiały typu H i L, czyli o dużej (TiO2) i małej (SiO2) wartości n. Jeśli chodzi o dwutlenek tytanu to materiał ten, oprócz dużej przezroczystości dla światła widzialnego, posiada szereg innych zalet. Jest on nietoksyczny, stabilny chemicznie, termicznie i mechanicznie, a także wykazuje aktywność fotokatalityczną [5-7]. Dlatego, jest on stosowany tak powszechnie w konstrukcji różnego typu powłok i filtrów optycznych. W wypadku typowych powłok antyrefleksyjnych na bazie TiO2 i SiO2 jako górną warstwę, która ma kontakt z otoczeniem (powietrzem atmosferycznym), stosuje się dwutlenek krzemu, czyli materiał o mniejszym współczynników załamania światła. Natomiast, gdy ułożenie poszczególnych warstw w powłoce AR jest odwrotne, wraz ze wzrostem grubości warstwy typu H (np. TiO2) maleje poziom przezroczystości całej powłoki AR. Na rysunku 2 przeds... więcej»

Ocena jakości energii elektrycznej w obiektach przemysłowych - badania eksperymentalne (TOMASZ TARASIUK, JANUSZ MINDYKOWSKI, PIOTR GNACIŃSKI, MARIUSZ SZWEDA, ANDRZEJ PIŁAT, MARIUSZ GÓRNIAK)
Rozwój nowych technologii w zakresie wytwarzania i użytkowania energii elektrycznej, z jednej strony umożliwia zwiększenie efektywności energetycznej, zaś z drugiej strony istotnie zmienia charakterystyki energii elektrycznej w systemach elektroenergetycznych. Przede wszystkim zauważalny jest stały wzrost liczby i mocy odbiorników o nieliniowych charakterystykach oraz coraz powszechniejsze wykorzystanie odnawialnych i rozproszonych źródeł energii elektrycznej. W tym kontekście należy wspomnieć zwłaszcza o energetyce wiatrowej i, w dalszej kolejności, solarnej. Efektem tych zmian są obserwowane coraz większe poziomy zniekształceń napięć i prądów w systemach elektroenergetycznych, problemy z bilansowaniem mocy związane ze zmienną i trudną do kontrolowania mocą źródeł i związane z tym możliwe zmiany częstotliwości składowej podstawowej. Towarzyszy temu rozwój technik informacyjnych oraz nowych technologii w zakresie cyfrowego przetwarzania sygnałów, komunikacji, sterowania itp. Połączenie wyżej wspomnianych technik i technologii umożliwia integrację różnych elementów złożonego systemu elektroenergetycznego, prowadząc do powstania w pełni inteligentnych systemów elektroenergetycznych (ISE). Istotnym elementem tych systemów będzie inteligentna infrastruktura pomiarowa [1], umożliwiająca dwukierunkową komunikację pomiędzy wszystkimi uczestnikami rynku energii elektrycznej. Dodatkowo, aby zwiększyć korzyści związane z integracją licznych rozproszonych źródeł energii elektrycznej, często o małej mocy oraz ograniczyć problemy związane z niezawodnością dostaw dla kluczowych odbiorców (szpitale, centra danych, systemy bezpieczeństwa), proponuje się wprowadzanie lokalnych podsystemów elektroenergetycznych o wyraźnie określonych elektrycznie granicach, zawierających rozproszone źródła energii elektrycznej i odbiorców o różnym charakterze, czyli ... więcej»

Czasopisma NT, indeksy, cytowania, bazy danych, wydawnictwa cyfrowe, bibliometria. Część 2 (Ryszard S. Romaniuk)
W części pierwszej artykułu omówiono pobieżnie kilka następujących zagadnień: czasopisma NT w erze dynamicznych mediów cyfrowych, wersja papierowa a bazodanowa czasopism, wirtualne czytelnie, zdrowe ambicje lokalnych czasopism NT wejścia do globalnych baz danych, polityka ustawodawcy dotycząca rynku wydawniczego czasopism naukowo-technicznych w kraju, otwarte wydawnictwa cyfrowe, czasopisma międzynarodowych organizacji NT, krajowe czasopisma NT, krajowy rynek wydawniczy czasopism NT, cytowania, pozycjonowanie (lokowanie) czasopism, indeksy bibliometryczne, licencjonowanie prawno-autorskie CCL, e-wydawnictwa krajowych czasopism NT - pytania z odpowiedziami i bez. W części drugiej ten pobieżny wywód jest kontynuowany z ukierunkowaniem na poważny dylemat wyboru czasopism wobec ryku wydawniczego otwartego i komercyjnego. Ponadto przedstawiono listę baz danych e-nauki i bibliograficznych oraz glosariusz wybranych terminów bibliograficznych. Ponadto powtórzono znaczne fragmenty wstępu do części pierwszej. W kraju wydawanych jest co najmniej kilkadziesiąt, liczących się także za granicą, lokalnych czasopism naukowo- technicznych (NT). Część z nich, wydawanych w języku angielskim, posiada międzynarodowe indeksy wydawnicze. Żadne z nich jednak nie posiada charakteru globalnego w sensie jakości i ilości wydawanych prac. W dziedzinie elektroniki i telekomunikacji takich czasopism o międzynarodowej renomie jest kilka, podobnie jak i w obszarze automatyki, robotyki i informatyki. Dodatkowo wydawanych jest zapewne kilkadziesiąt dobrych czasopism NT polskojęzycznych (lub także wydających okazjonalnie materiały po angielsku) cieszących się uznaniem i popularnością w swoich obszarach tematycznych w środowisku NT. Ustawodawca faworyzuje ze względów parametryzacyjnych, i internacjonalizacji krajowych środowisk NT czasopisma anglojęzyczne. Rynek wydawniczy czasopism NT jest w kraju znaczny. Czasopisma NT są znaczną częścią całego środowiska, ... więcej»

O silnej sztucznej inteligencji (Zbigniew Handzel, Mirosław Gajer)
Wyraźnie zarysowującym się nurtem badawczym w dziedzinie sztucznej inteligencji jest prąd określany mianem "silnej sztucznej inteligencji" (ang. strong artificial intelligence). Zwolennicy wymienionego kierunku badawczego częstokroć wysuwają bardzo śmiałe tezy, według których pomiędzy budową ludzkiego mózgu a budową cyfrowego komputera (tzw. maszyny Turinga) nie ma w istocie żadnych fundamentalnych różnić. W skrajnych przypadkach można spotkać się wręcz ze stwierdzeniem, że ludzkie mózgi to tylko komputery, tyle że zbudowane z substancji organicznych (aminokwasów, DNA itp.) zamiast półprzewodnikowych układów scalonych. W związku z powyższym formułowane są także niezwykle śmiałe prognozy, według których być może już za kilkadziesiąt lat konstruowane przez naszą cywilizację techniczną komputery osiągną stopień złożoności przewyższający stopień komplikacji budowy ludzkiego mózgu, w związku z czym staną się bardziej sprawne intelektualnie niż człowiek [2-4]. Niektórzy badacze w tego rodzaju prognozach dopatrują się nawet poważnych zagrożeń dla dalszego istnienia ludzkiego gatunku, ponieważ według nich zachodzi poważna groźba, że w pewnym momencie doskonalsze od człowieka twory techniki po prostu zbuntują się, przejmą władzą i postanowią człowieka całkowicie wyeliminować jako zbędną dla nich konkurencję. W niniejszym artykule autorzy próbują podjąć dyskusję, odnośnie zasadności hołdowania tego rodzaju poglądom i głoszenia takich katastroficznych prognoz. W opinii autorów za "silną sztuczną inteligencją" kryją się inne fundamentalne stanowiska filozoficzne, których jest ona tylko zwykłą konsekwencją. W szczególności "silna sztuczna inteligencja" wydaje się być bezpośrednią konsekwencją pewnego dogmatu przyjmowanego dość powszechnie w naukach biologicznych, z którym autorzy pragną podjąć dyskusje w dalszej części niniejszego artykułu. We wszystkich znanych autorom podręcznikach do nauk biologicznych zakłada się, trzeba uczciwie p... więcej»

Nowoczesne metody sterowania ruchem statku handlowego (Józef Lisowski, Witold Gierusz, Andrzej Łebkowski)
Układy sterowania ruchem statku składają się na system nawigacji technicznej zapewniający dokładne, ekonomiczne i bezpieczne przemieszczanie się jednostki pływającej. Rozróżnia się układy, które realizują: a) stabilizację kursu statku w ruchu prostoliniowym oraz stabilizację prędkości postępowej statku, b) stabilizację prędkości kątowej lub promienia zwrotu przy zmianach kierunku ruchu, c) kompensację kołysań bocznych, d) sterowanie na trajektorii według punktów geograficznych wraz z zapobieganiem kolizjom z innymi statkami, e) sterowanie precyzyjne z małymi prędkościami i dowolnym kątem dryfu, f) dynamiczne utrzymywanie stałego położenia statku względem geograficznego punktu odniesienia (Dynamic Ship Positioning), g) automatyczne cumowanie do boi lub punktu pobierania ładunku z kontrolą naprężenia lin i minimalizacją wpływu zakłóceń zewnętrznych, h) sterowanie położeniem statku kotwiczącego typu FSO, FPSO lub FPDSO (statki używane na akwenach z podmorskimi polami naftowymi do przechowywania i/lub przetwórstwa ropy naftowej, typu FSO (Floating Storage Off- Loading) pełni rolę magazynu, FPSO (Floating Production Storage Off-Loading) także rolę wstępnej przetwórni, FPDSO (Floating Production, Driling Storage Off-Loading) dodatkowo dokonywać wierceń) w celu minimalizacji kołysań i nurzania (rys. 1). W artykule przedstawiono wybrane systemy sterowania oraz metody weryfikacji ich poprawnego działania [1, 2]. Sterowanie precyzyjne ruchem statku w porcie i na podejściach do portu Przemieszczanie statku na ograniczonym akwenie (port, reda, tor wodny, kanał itp.) znacząco odbiega od ruchu jednostek na otwartym morzu. Najważniejsze różnice można scharakteryzować przez: - małe liniowe i kątowe prędkości przemieszczania przy możliwości wystąpienia bardzo dużych kątów dryfu, - brak możliwości uż... więcej»

Zobacz wszystkie publikacje »

2014-7

zeszyt-4114-elektronika-konstrukcje-technologie-zastosowania-2014-7.html

 
W numerze m.in.:
Układy pomiarowe w urządzeniach towarzyszących (Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)
Podstawowym wymaganiem stawianym urządzeniom pracującym w przestrzeniach zagrożonych wybuchem jest iskrobezpieczeństwo. Jest ono definiowane jako rodzaj zabezpieczenia przeciwwybuchowego polegającego na ograniczeniu energii elektrycznej w obwodach mających kontakt z atmosferą wybuchową do poziomu poniżej energii zapłonu - zarówno w wyniku iskrzenia jak i nagrzewania się. Urządzenia towarzyszące należą do grupy takich urządzeń, które zawierają zarówno obwody iskrobezpieczne jak i nieiskrobezpieczne. Musi być ono skonstruowane w taki sposób, aby obwody, w których energia nie jest ograniczona nie mogły oddziaływać niekorzystnie na obwody o ograniczonej energii. Urządzenia towarzyszące mogą być instalowane w obudowach ognioszczelnych, zaś okablowanie przyłączane do obwodów iskrobezpiecznych tych urządzeń przechodzić do stref zagrożonych wybuchem. Urządzenia towarzyszące zbudowane są z trzech stref obwodów przedstawionych na rysunku 1: obwodu nieiskrobezpiecznego, nieiskrobezpiecznej części obwodu iskrobezpiecznego i obwodu iskrobezpiecznego. Przy projektowaniu urządzenia, a w szczególności jego układów pomiarowych należy zadbać o to, aby pomiędzy strefą nieiskrobezpieczną a strefą nieiskrobezpiecznej części obwodu iskrobezpiecznego zachować separację galwaniczną. Elementy oddzielające galwanicznie powinny być zgodne z konstrukcjami dopuszczonymi w normach [1, 2] i zachować parametry pracy zgodnie z tymi normami. Specyficzną grupą urządzeń towarzyszących stanowią sterowniki zabezpieczające z ... więcej»

Wykorzystanie pakietu GCC do realizacji funkcji symulatora logiki programowalnej (Maciej Andrzejewski, Radosław Przybysz, Paweł Wlazło)
Chyba każdy programista, chociaż raz skorzystał z pakietu GCC do tworzenia własnej aplikacji narzędziowej, czy programu dla mikrokontrolera jednoukładowego. Pakiet oprogramowania umożliwia kompilację programu napisanego w języku C, C++, Objective-C, Fortran, Java, Ad, oraz Go do postaci pliku wykonywalnego lub biblioteki statycznej lub dynamicznej. Uniwersalność narzędzi wchodzących w skład pakietu oprogramowania GCC pozwala na kompilację programu dla praktycznie dowolnej architektury procesorów m.in.: ARM, X86, AMD64, PowerPC, MIPS, SPARC oraz wielu innych. Pakiet GCC jest, zatem idealnym narzędziem do tworzenia wieloplatformowej technologii kompilacji programu dla urządzeń automatyki przemysłowej oraz tworzenia symulatora ich działania w systemach operacyjnych Windows czy Linux. Poniżej przedstawiono przykład wykorzystanie pakietu GCC do budowy symulatora inteligentnego urządzenia elektronicznego (sterownika PLC) w zakresie logiki programowalnej. Artykuł powstał w ramach prowadzonej pracy badawczo-rozwojowej "Symulator Funkcji Logicznych", której wyniki będą zaimplementowane w oprogramowaniu narzędziowym ELF (Edytor Funkcji Logicznych) [1][2] do sterowników polowych typu MUPASZ [3][4] opracowywanych w Instytucie Tele- i Radiotechnicznym w Warszawie. Budowa przykładowego oprogramowania sterownika PLC Na rysunku 1. przedstawiono przykładową budowę oprogramowania s... więcej»

Metodyka pomiarowa i urządzenia do badania upływności kabli i przewodów elektroenergetycznych stosowanych w podziemnych sieciach górniczych (Jerzy Chudorliński, Paweł Michalski, Piotr Prystupiuk, Radosław Przybysz, Paweł Wlazło)
Jedną z najczęstszych przyczyn powstania wybuchu metanu i pyłu węglowego jest iskrzenie z wadliwej instalacji elektrycznej. Aby do tego nie dopuścić w kopalniach stosowany jest ciągły monitoring rezystancji upływności kabli i przewodów elektroenergetycznych. Podstawową metodą jest badanie rezystancji upływności kabli i przewodów elektrycznych prądem stałym lub przemiennym stosowany w urządzeniach do zabezpieczeń upływnościowych. Badanie upływności kabla lub przewodu elektrycznego powinno odbywać się przy prądzie pomiarowym odpowiednio dobranym dla przestrzeni zagrożonych wybuchem. Przy stwierdzeniu zbyt dużej upływności kabel nie może być używany. Należy go odłączyć i wymienić, co przy długich odcinkach kabla jest procesem kosztownym i długotrwałym. Warunkiem bezpiecznej eksploatacji przewodów oponowych ekranowanych jest równoczesne stosowanie w sieci systemów zabezpieczających. Przy braku zabezpieczeń lub ich niesprawnym działaniu, eksploatacja przewodów może stanowić zagrożenie. Parametry oraz funkcjonalność działania zabezpieczeń muszą być dostosowane do indywidualnych własności konstrukcyjnych przewodu i rodzaju żył oraz ekranów i ich wzajemnej konfiguracji. Powszechnie przyjętym rozwiązaniem jest łączenie ekranu z potencjałem żyły ochronnej. W tych warunkach uszkodzenie izolacji żył roboczych względem ekranu jest równoznaczne z uszkodzeniem izolacji doziemnej sieci. Klasyfikacja metod lokalizacji uszkodzeń W przypadku sieci zasilających stosowanych w podziemnych zakładach górniczych istnieją pewne specyficzne uwarunkowania rzutujące na metodologię i dobór metod przeprowadzania lokalizacji linii energetycznych. Można wyodrębnić trzy grupy metod związane z określaniem miejsca uszkodzenia [2, 4]: - lokalizacja odcinkowa związana z zabezpieczeniem blokującym, które umożliwia identyfikacje i odłączenie od sieci odcinka, w którym nastąpiło uszkodzenie. To uniemożliwia podanie napięcia na uszkodzony odcinek sieci zasilaj... więcej»

Architektura urządzeń zabezpieczeniowych podlegających dyrektywie ATE X (Paweł Michalski, Piotr Prystupiuk, Jerzy Chudorliński)
Współczesne urządzenia zabezpieczeniowe stosowane w przemyśle i energetyce zawodowej to bardzo skomplikowane urządzenia o dopracowanej konstrukcji bazującej zwykle na długoletnim doświadczeniu konstruktorów. Urządzenia zabezpieczeniowe stosowane w górnictwie węgla kamiennego zwykle podlegają dyrektywie ATEX. Obecnie obowiązująca dyrektywa ATEX 94/9/ WE narzuca wiele rozwiązań, które muszą zostać zastosowane w urządzeniach elektroenergetycznych użytkowanych w chodnikach lub na przodkach kopalni. Instalowane dzisiaj w kopalniach rozwiązania zasilania infrastruktury przodka lub chodnika górniczego wyposażone są w sterowniki polowe zabudowane w osłonach ognioszczelnych wraz z łącznikami i innego rodzaju aparaturą pomocniczą niezbędną jako wyposażenie stacji transformatorowej lub stacji rozdzielczej. Rozwiązania typowo stosowane w górnictwie wymagają przystosowania do pracy w wyrobiskach zarówno niemetanowych jak i metanowych zaliczanych do stopnia "a", "b" lub "c" niebezpieczeństwa wybuchu metanu, a także do pomieszczeń klasy "A" lub "B" niebezpieczeństwa wybuchu pyłu węglowego. Miejsce zastosowania decyduje o poziomie skomplikowania rozwiązań, które mogą zostać użyte. W górnictwie wyraźnie widoczny jest trend użytkowania sterowników polowych podlegających dyrektywie ATEX, przystosowanych do pracy w trybie ciągłym, w najbardziej narażonych na wybuch metanu lub pyłu węglowego wyrobiskach, a więc o najwyższym poziomie zabezpieczenia obwodów iskrobezpiecznych "ia". Poziom zabezpieczenia "ia", opisywany przez najnowszą normę [2], nierzadko stoi w sprzeczności z wymaganiami kopalni dotyczącymi warunków pracy - zmniejszające się przekroje wyrobisk, rozszerzony zakres temperatur pracy stacji, wiele odpływów stacji, większa liczba zabezpieczeń związanych z ochroną przeciwwybuchową i przeciwporażeniową. Przedstawione wymagania wymuszają zastosowanie sterowników polowych o podwyższonych parametrach [9], czego konsekwencją jest koniecznoś... więcej»

Czasopisma NT, Indeksy, Cytowania, Bazy danych, Wydawnictwa Cyfrowe, Bibliometria. Część 1 (Ryszard S. Romaniuk)
Indeksy, cytowania, bibliometria, ocena parametryczna jednostek naukowych, ocena osobista dorobku uczonych są przedmiotem zainteresowania środowiska naukowego, choćby ze względu na powiązanie tych funkcji i parametrów z procesami legislacyjnymi dotyczącymi nauki w naszym kraju. Jesteśmy świadkami, a niektórzy z nas uczestnikami i autorami, intensywnych przemian w sposobie wydawania czasopism naukowo-technicznych (NT). Czasopisma NT podlegają szybkim zmianom, wraz z "internetyzacją" tj. cyfryzacją, informatyzacją, badań naukowych i powiązanych z badaniami i innowacjami, zaawansowanych procesów przemysłowych. Czasopisma te już obecnie nie liczą się praktycznie prawie zupełnie jako zbiory biblioteczne wydań papierowych (jedynie jako zbiory historyczne) a tylko i wyłącznie jako bazy danych o bardzo dobrej, tylko dobrej, lub nieco słabszej proweniencji. Historyczne wydania są coraz częściej w pełni digitalizowane i archiwizowane. Większość czołowych wydawnictw zarchiwizowało kolekcje swoich czasopism NT. Jakość bazy danych (według instytucji finansujących badania i administracji nauki) jest współmierna z wysokością indeksów oceniających czasopismo, i dalej z wysokością finansów i obłożeniem przez najlepszych autorów z najlepszych ośrodków naukowych, generujących najlepsze wyniki naukowe i techniczne. Czasopismom o charakterze lokalnym bardzo trudno jest uzyskać wysokie wskaźniki bibliometryczne. W kraju zrodziła się koncepcja powołania Polskiego Indeksu Czasopism Naukowych. Do takiej roli aspiruje prawdopodobnie Index Copernicus (IC Journal Master List), ale nie tylko, także inne. Powstaje duży portal krajowy zarządzania nauką Pol-ON, w ramach którego mogą być zapewne tworzone mechanizmy tworzenia ocen i indeksów instytucji, wydawnictw, czasopism i osób. Prowadzona jest intensywna dyskusja nad przyszłością wielu czasopism i sposobem ich wydawania. Artykuł jest niezbyt uporządkowanym i skromnym przyczynkiem do tej dyskusji. Tematy... więcej»

Zobacz wszystkie publikacje »

2014-6

zeszyt-4082-elektronika-konstrukcje-technologie-zastosowania-2014-6.html

 
W numerze m.in.:
Programowa implementacja kontrolera magistrali CAN w lokalnych sieciach sensorowych (Kazimierz KAMUDA, Mariusz SKOCZYLAS, Jerzy ŚWIĘCH, Włodzimierz KALITA)
Kontroler CAN wykonuje ściśle określone funkcje w układach elektronicznych współpracujących z magistralą CAN. Podstawową funkcją kontrolera jest sprzętowa realizacja protokołu magistrali CAN, która obejmuje generowanie pakietów danych według specyfikacji standardu CAN, odbiór danych oraz obsługę błędów. Dzięki kontrolerowi układ mikroprocesorowy współpracujący z magistralą jest odciążony od dodatkowych obliczeń. Mikrokontroler, który wcześniej został skonfigurowany do wysyłania i odbierania wiadomości na magistralę, musi jedynie dostarczyć kontrolerowi określone wartości identyfikatora i danych do kontrolera CAN, a cała reszta funkcji potrzebnych do działania w tym systemie jest realizowana w tym układzie scalonym. Najczęściej kontroler magistrali CAN realizowany jest w postaci sprzętowej w mikrokontrolerze, bądź w formie oddzielnego układu scalonego. Możliwa jest jednak programowa implementacja kontrolera, dzięki której typowy mikrokontroler 8 bitowy będzie mógł odbierać i wysyłać dane na magistrali. Wprowadzenie programowej implementacji wiąże się pewnymi ograniczeniami. Będą nimi mniejsza ilość wolnej pamięci flash oraz większe obciążenie procesora na czas odbierania i przetwarzania danych. Jednak w wielu przypadkach wady te nie dyskredytują tego rozwiązania. Programowa implementacja niesie ze sobą też wiele zalet, takich jak mniejsze koszty urządzenia, możliwość działania z wykorzystaniem tanich mikrokontrolerów oraz znaczne ograniczenie poboru mocy związanego z pracą dodatkowego układu kontrolera CAN. Koncepcja programu Program implementujący funkcje kontrolera magistrali CAN nie musi w pełni odzwierciedlać działania sprzętowego kontrolera CAN. Wynika to z faktu, że istnieje tylko kilka funkcji niezbędnych do wymiany danych na magistrali, więc szereg działań kontrolera może zostać pominięte lub zastąpione. Program, który został opracowany można podzielić na trzy części. W pierwszej części znajdują się funkcje, bez któ... więcej»

Fotodioda RGB w niskiej temperaturze (Jakub Pająkowski)
Temperatura pracy podzespołów elektronicznych poniżej 200K nie jest typowym zakresem temperatur przewidzianym przez ich producentów. Jednak wiele urządzeń znajduje zastosowanie w niższych przedziałach temperaturowych, na przykład w badaniach z dziedziny ciała stałego, badaniach kosmicznych, w medycynie, krioterapii, czy w przemyśle spożywczym. Prowadzone wcześniej badania wykazały, że fotodiody zachowują swoje właściwości detekcyjne w niskich temperaturach [1, 9], a wzmacniacze operacyjne wykonane w technologii BiFET zachowują swoje właściwości wzmacniające w temperaturze wrzenia ciekłego azotu (77 K). Przebadano wzmacniacze operacyjne typu LF411 i TL081: ich wzmocnienia różnicowe KUR przy temperaturze 77K równe są odpowiednio 80dB i 90dB [2]. Wybrane typy wzmacniaczy operacyjnych CMOS są zdolne do pracy w temperaturze poniżej 50 K (przykładowo wzmacniacz typu LMC6041: w temperaturze 45 K jego wzmocnienie różnicowe KUR = 100dB) [3]. Wzmacniacz operacyjny wykonany w technologii CMOS typu AD8594 wzmacnia nawet w temperaturze wrzenia ciekłego helu (4,2 K) - jego wzmocnienie różnicowe KUR = 60 dB [4]. Również diody elektroluminescencyjne zachowują zdolności emisyjne przy 77 K [5]. W zakresie temperatury od 77 K do 300K przetestowano diody: czerwoną typu... więcej»

Computer game as means of Mine Risk Education for children (Andrzej Kaczmarczyk, Piotr Kowalski, Marek Kacprzak, Andrzej Masłowski)
Educational computer game being the subject of this paper is developed by IMM as a part of an European FP7 Collaborative Integration Project named TIR AMISU (Toolbox Implementation for Removal of Anti-personnel Mines, Submunitions and UXO)(UXO - Unexploded Ordnance). TIR AMISU aims at providing the foundation for a global toolbox that will cover the main Mine Action activities, from the survey of large areas to the actual disposal of explosive hazards, including Mine Risk Education (MRE ). The project has been planned for years 2012-2015 with participation of 24 partners from 11 countries. In this paper introductory information and assumptions making up a base for the game design are presented. State of the art Computer games find their application in education generally. They have "tremendous potential and level of capability as mediums of education", and many advantages because they offer: "agency, immersion, challenge, reward, immediacy, a dialect of repetition and variety, physical and mental engagement, and multi-sensory stimulation" [1]. As computer games advantages in education are considered also: “active participation, intrinsic and prompt feedback, challenging but achievable goals, and a certain degree of uncertainty and open-endedness" [2]. More complete list of attributes of the learning via computer games gives [3]. Specific aiming of educative computer games can be characterized - after [4] - as “to spawn objects, connect them with various constraints and thus create working systems that obey the laws of physics". Such applications can be found in chemistry (virtual laboratory), architectural design, biology (cell biology, virtual dissection), assembling (model of a car, experimental apparatus). Similar character have games with virtual lego bricks [5]. Advantages of this learning-by doing educational approach in computer games are discussed in [6]. Moreover - maybe first of all - there... więcej»

Narodowa Inicjatywa Fotoniki (Ryszard S. Romaniuk)
Szybki rozwój zaawansowanych technologii - a taką jest fotonika, i utrzymanie konkurencyjnej pozycji na rynku globalnym, wymaga inicjatyw globalnych w postaci planowania i realizacji bardzo dużych programów badawczych i przemysłowych, obecnie na poziomie miliardów lub dziesiątków miliardów euro. Fotonika nieodwracalnie zastępuje klasyczne metody produkcji. Mechaniczne metody obróbki w wielu sektorach przemysłów wytwórczych ustępują addytywnym metodom fotonicznym. Oświetlenie klasyczne zastępowane jest na masową skalę fotonicznym. Klasyczne radary ustąpią, wcześniej czy później, radarom optycznym. Konieczne jest szkolenie kadr do wdrażania nowych technologii fotonicznych oraz przekonanie społeczeństwa do zmian, w warunkach wzmacniającej się konkurencji globalnej. Nagrodą dla prymusa technologii jest, w dzisiejszych czasach otwartego informacyjnego społeczeństwa internetowego, szybkie opanowanie rynku globalnego, osiągnięcie największych zysków, a także możliwość narzucenia swoich standardów, a więc uzyskanie trwalszych efektów. Jak to zrobić? Częściowo na to pytanie stara się odpowiedzieć Narodowa Inicjatywa Fotoniki NPI . Sponsorami Narodowej Inicjatywy Fotoniki są dwa największe światowe zawodowe organizacje fotoniczne: Optical Society of America - OSA, oraz International Society for Optics and Photonics - SPIE . "Fotonizacja społeczeństwa" Przez "fotonizację społeczeństwa" rozumiane są ściśle skorelowane, globalne działania edukacyjne, szkoleniowe, naukowo-techniczne, organizacyjne, gospodarcze, ekonomiczne, polityczne, a także rozpowszechniające i społeczne, a nawet psychologiczne. Amerykańska masywna inicjatywa "fotonizacji społeczeństwa" nosi nazwę NPI - National Photonics Initiative [1]. Celem inicjatywy podjętej wspólnie w USA przez szereg organizacji społecznych, naukowotechnicznych [2-6], gospodarczych, biznesowych, a także rządowych jest: "Lighting the Path to a Competitive, Secure Future". Głównie gospodarcza ... więcej»

Predykcja położenia użytkownika w przestrzeni 3D w przypadku zaniku lub braku sygnału z GNSS (Jacek CYREK, Janusz DUDCZYK, Adam KAWALEC, Andrzej WITCZAK)
Problematyka związana z zapewnieniem dostępności usług lokalizacji w przestrzeni 3D jest szeroko opisywana w literaturze naukowej. Pomimo znaczących osiągnięć w tej dziedzinie w dalszym ciągu do rozwiązania pozostają kwestie zapewnienia możliwości lokalizacji przestrzennej w każdym obszarze, w tym także w warunkach braku dostępności sygnału z globalnych satelitarnych systemów nawigacyjnych GNSS (ang. Global Navigation Satellite Systems). W niniejszej pracy przedstawiony zostanie obecny stan zaawansowania metod estymacji położenia użytkownika oraz zaproponowana idea integracji metody U-TDOA (ang. Uplink Time Difference of Arrival) wspartej wykorzystaniem informacji pochodzących z właściwości zastosowanych na stacjach bazowych anten adaptacyjnych z modelami predykcji zasięgów stosowanymi w systemach komórkowych. Głównym celem, podczas wyboru metody, było zapewnienie jak najdokładniejszej lokalizacji przestrzennej bez jakiegokolwiek udziału użytkownika w jej procesie podczas zaniku lub całkowitego braku lokalizacji przy wykorzystaniu GNSS. Jest to szczególnie istotne w przypadku realizacji połączeń na numery ratunkowe, gdzie wymagana jest identyfikacja położenia osoby wzywającej pomocy. Systemy GNSS pomimo, że umożliwiają dokładniejszą estymację a ich odbiorniki są zaimplementowane w większości stosowanych obecnie smartfonów, wymagają dodatkowej akcji ze strony użytkownika w postaci ich uruchomienia, co większości sytuacji kryzysowych niestety nie jest możliwe [14, 15]. Obecnie wykorzystywane systemy GNSS - informacje ogólne Wyznaczanie pozycji odbiornika we wszystkich aktualnie wykorzystywanych satelitarnych systemach nawigacyjnych realizowane jest poprzez pomiar odległości między satelitami systemu a odbiornikiem. Mają one również jednakową strukturę obejmującą trzy segmenty: kosmiczny, do którego zaliczają się krążące wokół Ziemi satelity, segment nadzoru, który stanowią stacje śledzące ruch i działanie satelitów, oraz se... więcej»

Zobacz wszystkie publikacje »

2014-5

zeszyt-4031-elektronika-konstrukcje-technologie-zastosowania-2014-5.html

 
W numerze m.in.:
IFA 2014 - Światowa Konferencja Prasowa
W dniach 24-27 kwietnia w miejscowości Belek na Riwierze Tureckiej obyła się konferencja prasowa przezentująca wrześniową wystawę IFA w Berlinie. Wszyscy zdają sobie sprawę, że mamy do czynienia z szybko zmieniającymi się rynkami. Te zmiany to nie tylko nowe produkty, ale również nowi gracze rynkowi oraz nowe zasady. Hans-Joachim Kamp, przewodniczący rady nadzorczej firmy GFU (organizatora targów IFA) nazwał organizowaną aktualnie wystawę IFA 2014 (5-12 września) jako IFA Consumer Electronics 4,0 (CE 4.0). Aby wyjaśnić, co oznacza CE 4.0 oznacza należy cofnąć się trochę w czasie. Termin CE 1.0 został wprowadzony przez tradycyjne firmy branży elektroniki użytkowej. Rynki były zdominowane przez lokalnych producentów. Produkty charakteryzowały się stosowaniem techniki analogowej i wynikał z tego powolny cykl wprowadzania innowacji. Kolejnym krokiem było rozpoczęcie globalizacji w branży. Lokalne - europejskie marki - musiały stawić czoła silnej konkurencji ze strony podmiotów międzynarodowych w tej dziedzinie, wśród których prym wiodła Japonia, a później zaczęła dorów... więcej»

Zastosowanie operatora krzyżowania równomiernego w przypadku algorytmów ewolucyjnych z krzyżowaniem wieloosobniczym (Zbigniew Handzel, Mirosław Gajer)
Różnorodne techniki obliczeniowe, określane wspólnie mianem systemów ewolucyjnych cieszą się obecnie niesłabnącym zainteresowaniem, a obszary ich potencjalnych zastosowań nieustannie się powiększają, obejmując między innymi zagadnienia optymalizacji wielokryterialnej o dynamicznie zmieniających się uwarunkowaniach [1]. Do tego rodzaju technik obliczeniowych zaliczane są, między innymi, algorytmy ewolucyjne, algorytmy genetyczne, programowanie ewolucyjne, programowanie genetyczne, a także tzw. algorytmy rojowe, naśladujące zjawiska zachodzące w obrębie zbiorowości owadów społecznych, takich jak na przykład mrówki i pszczoły [2]. Zasady działania wymienionych technik obliczeniowych sprowadzają się do cyklicznego wykonywania odpowiednich operacji genetycznych, do których zalicza się przede wszystkim wzajemne krzyżowanie osobników, mutację ich materiału genetycznego oraz selekcję osobników, które będą mogły przejść do kolejnego pokolenia [3]. Tematyka niniejszego artykułu została poświęcona genetycznemu operatorowi krzyżowania, który realizowany jest w wersji tzw. krzyżowania wieloosobniczego. Jak sama nazwa wskazuje krzyżowanie wieloosobnicze sprowadza się do jednoczesnego zastosowania operatora krzyżowania do więcej niż dwóch osobników. Tego rodzaju proces nie ma swej bezpośredniej analogii w świecie przyrody [4]. Zastanawiając się nad przyczynami takiego stanu rzeczy, jako na główny powód należy wskazać prawdopodobnie na ewentualne trudności praktycznej realizacji w naturalnych warunkach procesu jednoczesnej wymiany materiału genetycznego pomiędzy trzema, a tym bardziej pomiędzy większą liczbą osobników. Prawdopodobnie tego rodzaju proces okazałby się być "zbyt kosztowny" w praktycznej realizacji, aby przyroda była skłonna go wypróbować podczas trwającej ponad miliard lat ewolucji życia na Ziemi. Jednak w przypadku sztucznych system... więcej»

Zatrzaskiwanie się pasożytniczego tyrystora i szybkie zatrzaskiwanie się pasożytniczego tyrystora (Bartłomiej Półtorak, Jacek Szatkowski )
W komercyjnie dostępnych układach scalonym (np. wzmacniaczu operacyjnym, mikroprocesorze) znajduje się więcej tranzystorów i diod niż niezbędna ilość do wykonywania podstawowych funkcji danego urządzenia. Te dodatkowe elementy półprzewodnikowe (np. diody poziomujące) na wejściu i wyjściu układu scalonego są niezbędne do zapewnienia prawidłowego działania układu scalonego w żądanych warunkach. Diody poziomujące zabezpieczają przed przepięciami jak i zniekształceniami sygnałów. Używane są również inne bardziej złożone elementy półprzewodnikowe, które zabezpieczają przed uszkodzeniem układów scalonych przez wyładowaniami elektrostatycznymi. Pochodzenie takich impulsów może mieć różne źródła. Aby ułatwić charakteryzację poszczególnych źródeł zagrożenia wyróżniono trzy podstawowe modele: - model ciała ludzkiego- Kondensator o pojemności 100 pF jest ładowany do wysokiego napięcia (od 200 V do 8 kV) a następnie jest rozładowywany przez rezystor 1,5 kΩ i obciążany element. Na rys. 1 jest przedstawiony schemat modelu ciała ludzkiego i kształt impulsu, jaki generuje dany model. Długość impulsu osiąga wartość kilku dziesiątych mikrosekundy a wysokość impulsu prądowego nie - model naładowanego urządzenia- polega na zastąpieniu naładowanego elementu scalonego układem zbudowanym z kondensatora (1-20 pF) rozładowywanego przez rezystor o pojemności 1 Ω. Uzyskiwane tą metodą impulsy mają czas trwania około 2ns i wysokość większą niż 2 A. Na rysunku trzecim (rys. 3) został przedstawiony model naładowanego urządzenia. Rys. 1. a) model ciała ludzkiego rozładowywany poprzez rezystor 1,5 ... więcej»

Słowo Prezesa SEP na ŚDTiSI 2014 - XV KOS - Konferencja Okrągłego Stołu "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej"
Szanowni Państwo, Mam zaszczyt powitać Państwa na jubileuszowej XV Konferencji Okrągłego Stołu zatytułowanej "Polska w drodze do Społeczeństwa Informacyjnego" pod hasłem "InterPolonia - a nowe narzędzia w edukacji i promocji kultury narodowej, na bazie szerokopasmowego dostępu do Internetu", objętej patronatem honorowym Pani Ewy Kopacz - Marszałek Sejmu RP. Konferencja ta stanowi kulminacyjny moment tegorocznych obchodów Światowego Dnia Telekomunikacji i Społeczeństwa Informacyjnego zorganizowanych przez Stowarzyszenie Elektryków Polskich i Polskie Towarzystwo Informatyczne. Obchody te zostały objęte patronatem honorowym Prezydenta Rzeczypospo... więcej»

Postulowane kierunki rozwoju polskiej gospodarki: Propozycje przemysłu elektronicznego i teleinformatycznego
Celem VI Forum Gospodarczego TIME, które odbyło się 3 marca 2014 roku w Warszawie, było podsumowanie rocznej dyskusji, jaka toczyła się w środowisku przedsiębiorców sektora ICT na temat sposobów wzmocnienia innowacyjnego rozwoju energetyki i infrastruktury technicznej (w szczególności telekomunikacyjnej i energetycznej). Innowacyjność w latach 2014-2020 zdecyduje, w jakim stopniu wykorzystamy szansę dołączenia do grupy państw najwyżej rozwiniętych. W ramach paneli dyskusyjnych zaproponowano szereg konkretnych rozwiązań. I. Sformułowano propozycje zmian prawnych, organizacyjnych i programowych ułatwiających i przyspieszających inwestycje w tak zwaną zintegrowaną infrastrukturę techniczną uwzględniających kluczowe znaczenie innowacyjności i nowych technologii dla gospodarki. II. Wskazano, że cyfryzacja, stanowiąca główny nurt innowacyjnego rozwoju gospodarki i technologii, wkroczyła do energetyki i konieczne jest wdrożenie innowacyjnego programu rozwoju energetyki rozproszonej opartej na odnawialnych źródłach i magazynach energii. Ad. I. W ramach Panelu I zatytułowanego TELEKOMUNIKACJA W ŚWIECIE SMART sformułowano szereg pytań i udzielono odpowiedzi. Debata programowa tego Panelu toczyła się w 4 blokach tematycznych: 1) zintegrowane inwestycje infrastrukturalne w korytarzach przesyłowych, 2) adresacja IPv6, jako fundament budowy warstwy "smart" sieci infrastrukturalnych i warunek konieczny rozwoju usług klasy M2 M, 3) gospodarowanie dobrami rzadkimi i usprawnienie zarządzania zasobami dostępowymi do klienta końcowego, 4) adaptacja prawa budowlanego dla obniżenia kosztów inwestycji w zintegrowaną infrastrukturę dostępową i budynkową. Najważniejsze tezy i postulaty dyskusji skupiały się wokół zadania realizacji inwestycji... więcej»

Zobacz wszystkie publikacje »

2014-4

zeszyt-4016-elektronika-konstrukcje-technologie-zastosowania-2014-4.html

 
W numerze m.in.:
Global-extreme-training of specific neural networks to find laws ruling empirical data (JAROSŁAW MAJEWSKI, RYSZARD WOJTYNA)
A need to create symbolic descriptions of unknown laws governing a given set of empirical data and to model the data set features is encountered in many situations and concerns plenty of physical systems. First papers on applying particular neural networks with exp(.) and ln(.) activation functions to solve the problem under consideration ware reported in [1-8]. Recently, specific networks with reciprocal-function activation-operators have been proposed in [9], [10]. Such networks allow us to describe the data set behavior be means of rational or polynomial functions, where the latter can be regarded as a particular case of the rational one. Coefficients of the rational or polynomial functions are determined in a way of training the specific neural network. As compared to the previously presented networks, the reciprocal-function-based ones lead to simpler network structures, include a lower number of the network elements and enable more effective network learning. Despite the introduced improvements, learning the networks is still a problem, [11], [12], and we devote plenty of time to make progress in this field. Improving the training technique is the goal of our research and this is the issue to be presented in this paper. Learning problems connected with gradient calculations Neural network learning can be realized in a variety of ways [11-12]. There are methods that are good in finding global optimum and can effectively omit local extremes. Another group is made by techniques which are fast and well suited for local area operations. Ability to generalize the data set behavior outside the range of the training variables is another required feature of the learning methods. For example, so called gradient descent (GD) techniques, where gradient of an objective function is calculated, often fail in case of very large networks [12]. From our experience results that learning the networks under consideration by means of the GD... więcej»

System sterowania gestem z wykorzystaniem czujnika wizyjnego Microsoft Kinect (Marianna Parzych, Damian Cetnarowicz, Adam Dąbrowski)
W związku z rozwojem technologii pozwalających na realizację elementów interfejsów człowiek-maszyna można zauważyć rosnące zainteresowanie rozwiązaniami umożliwiającymi sterowanie gestem. Efektywne sterowanie maszyną przy użyciu gestów wymaga doboru właściwych gestów, które pozwolą na przekazywanie precyzyjnych sygnałów sterujących, a ich rozpoznawanie nie będzie wydłużało czasu potrzebnego na kontakt operatora z maszyną. Przyjmując, że ostateczna weryfikacja przyjętego scenariusza gestów sterujących wymaga przeprowadzenia eksperymentu, Autorzy proponują prototypowe rozwiązanie eksperymentalnego systemu sterowania gestem. Do realizacji systemu wykorzystano powszechnie dostępny sensor Microsoft Kinect, co pozwoliło na ograniczenie kosztów i czasu realizacji systemu. Przedstawiono wyniki analizy kilku scenariuszy sterowania uzyskane zaproponowanym systemem. Przegląd systemów sterowania gestem Systemy sterowania gestem można klasyfikować na podstawie ich różnorodnego zastosowania. Jednym z najpopularniejszych obecnie zastosowań są interfejsy człowiek-komputer umożliwiające bezdotykową obsługę systemów operacyjnych, oprogramowania i urządzeń peryferyjnych. Takie rozwiązania zaproponowano w pracach [1-3]. Autorzy pracy [4] zaproponowali wykorzystanie systemu sterowania gestem do obsługi zestawów telewizyjnych, W pracy [5] zwrócono uwagę na możliwość zastosowania gestów do sterowania interaktywną tablicą, a w pracy [6] - interaktywnym biurkiem. Rozpoznawanie gestów może być wykorzystane do kontroli systemów inteligentnych domów, takich jak np. system sterowania oświetleniem [7]. Popularne jest wykorzystywanie gestów do sterowania robotami mobilnymi [8]. Śledzenie i rozpoznawanie ruchów całego ciała może być wykorzystane do sterowania robotami humanoidalnymi, tak jak zostało to zrealizowane przez autorów prac [9,10]. Innym kryterium podziału omawianych systemów sterowania jest wybrana metoda realizacji rozpoznawania gestów. Jedną ... więcej»

Optymalizacja parametrów technicznych radiostacji osobistej poprzez zastosowanie modulacji OFDM oraz pasma UHF (Janusz DUDCZYK, Adam KAWALEC)
Radiostacja osobista technologią krytyczną Nowoczesna, szerokopasmowa radiostacja żołnierza na polu walki to jednocześnie nowoczesny system łączności, będącym fundamentalnym elementem Indywidualnego Systemu Walki (ISW) [1-3], w którym: - efektywnie zostało wykorzystane pasmo; - uodporniono transmisję radiową na zakłócenia; - zapewniono prace w terenie zurbanizowanym NLOS (ang. Non-Line-Of-Sight); - zapewniono łatwość obsługi oraz umożliwiono przesyłanie danych cyfrowych innych niż sygnał audio. Efektem użycia takiej radiostacji jest zwiększenie skuteczności działania żołnierza na polu walki poprzez zwiększenie jego świadomości sytuacyjnej i bezpieczeństwa dzięki utrzymaniu niezawodnej łączności radiowej i wymiany danych. Analiza kanału transmisyjnego Z uwagi na podstawowy wymóg, jakim jest konieczność utworzenia łącza cyfrowego o przepustowości ok. 1 Mb/s w celu transmisji w kanale radiowym strumienia danych wideo z sensorów optoelektronicznych systemu C4I, należy przyjąć, że najbardziej niesprzyjającym scenariuszem pracy urządzeń radiowych jest działanie w strefach silnie zurbanizowanych. Model równoważnego kanału transmisyjnego dla ww. stref przyjmuje postać przedstawioną na rys. 1 [4]. Kanał transmisyjny jest estymowany poprzez linię opóźniającą z odczepami symbolizującymi opóźnienia będące efektem wielodrogowości odbioru, współczynniki T1, T2, T3,. TM są odzwierciedleniem opóźnień głównych ścieżek propagacji sygnałów. Współczynniki ck(t) symulują zachowanie się w czasie poszczególnych ścieżek propagacji. Można założyć, że kanał jest zakłócony addytywnym szumem gaussowskim zamodelowanym przez źródło ν(t). Z analizy modelu kanału transmisyjnego wynikają zasadnicze konkluzje: - kanał charakteryzuje się selektywnymi zanikami sygnału będącymi wynikiem interferencji sygnałów propagujących się poszczególnymi ścieżkami; - w kanale występuje wielodrogowość, powodująca dyspersję w czas... więcej»

Realization of Digital Audio Signal Interpolator Using Linear-Phase IIR Filter (Krzysztof Piotr Sozański)
In a digital class D power amplifier, depicted in Fig. 1, the output pulse power amplifier works as a one-bit D/A converter. We assume that the amplifier input signal is in the CD player standard, i.e., is sampled with rate fs = 44.1 ksamples/s. Thus, its approximate frequency band covers 0...fb = 0...20 kHz. In order to increase the resolution of the amplifier, noise shaping and oversampling techniques are used [9]. The chosen signal oversampling ratio R = 8 is a compromise between the power MOSFET switching losses (for the minimization of which R should be also minimized) and the selectivity of the output passive low-pass smoothing filter. The chosen switching frequency is R ⋅ fs=352.8 kHz. During the signal interpolation process, the signal dynamic ratio can be decreased by adding mirror signals to the input signal. For high quality audio signals the required dynamic range is near 90 dB. The aim of this paper is to present a new audio signal interpolator using LF IIR filter. The interpolator is designed for Class-D audio power amplifier. Signal Interpolator A signal interpolator made up of an upsampler and an anti-imaging low-pass filter for integer valued conversion factor R is depicted in Fig. 2. The low-pass filter H(e jωTs/R), also called the interpolation filter, removes the R-1 unwanted images in the spectra of upsampled signal w(kTs/R). Fig. 1. Block diagram of class D digital audio power amplifier Rys. 1. Schemat blokowy wzmacniacza mocy klasy D Fig. 2. Signal interpolator Rys. 2. Interpolator sygnałów DPWM Noise Shaping Circuit Signal Interpolator x(nTs) fs=44.1 kHz +UZ L1 L2 C1 C2 C3 ZL Gate Drivers 8fs=352.8 kHz fc=352.8 kHz H(ejTs/R) x(nTs) x R y(kTs/R) fs Rfs R w(kTs/R) h(kTs/R) El ektronika 4/2014 47 An illustration of interpolating process for R = 3 is depicted in Fig. 3. After the upsampling process, the out-of-band signal (unwanted images) is a source of interference ... więcej»

Zaawansowane systemy elektroniczne, zastosowania fotoniki i inżynieria Internetu – 33 Sympozjum WILGA 2014 (Ryszard S. Romaniuk)
XXXIII Sympozjum "Advanced Electronic Systems, Photonics Applications and Web Engineering" odbyło się na terenie Wydziału Elektroniki i Technik Informacyjnych PW w dniach 24-25 stycznia [1]. Sympozjum jest organizowane tradycyjnie pod auspicjami organizacji międzynarodowych SPIE i IEEE . Udział wzięło łącznie ok. 70 osób. Przedstawiono ok. 50 prezentacji. Sympozjum jest prowadzone tradycyjnie w języku angielskim. Tematyka sympozjum była skoncentrowana wokół teorii i praktyki aplikacyjnej zaawansowanych, funkcjonalnych układów i systemów fotonicznych i elektronicznych. Sympozjum stanowiło tradycyjnie przegląd prac magistrantów, doktorantów, i młodych uczonych w dziedzinie fotoniki, inżynierii sieci Internet oraz zaawansowanych funkcjonalnych systemów elektronicznych. Takie innowacyjne rozwiązania znajdują zastosowania w robotyce i automatyce przemysłowej, medycynie, ochronie środowiska, systemach bezpieczeństwa, eksperymentach badawczych, transporcie, technice kosmicznej, inżynierii oprogramowania, systemach sztucznej inteligencji. Uczestnicy Sesji na temat Systemów Wbudowanych pod przewodnictwem prof. Krzysztofa Poźniaka, XXXIII Sympozjum "Photonics Applications and Web Engineering". Przed popiersiem Patrona Wydziału Elektroniki i Technik Informacyjnych PW - prof. Janusza Groszkowskiego, Warszawa, 25 stycznia 2014 r. Materiały 33 Sympozjum Zastosowania Fotoniki i Inżynieria Sieci Web będą wydane łącznie, w jednym tomie serii wydawniczej Proc. SPIE , z tradycyjnym majowym Sympozjum młodych uczonych w Wildze [2-11]. Poniżej omówiono, korzystając z prezentacji autorskich, niektóre ciekawsze tematy poruszane w czasie wybranych sesji sympozjalnych. Sesję tematyczną rozpoczyna tradycyjnie krótka prezentacja opiekuna naukowego grupy studentów i doktorantów, po czym następuje seria prezentacji przyczynkowych rozwijających prezentację wprowadzającą. Sesje sympozjalne dotyczyły: inteligencji obliczeniowej i sztucznej inteligencji oraz... więcej»

Zobacz wszystkie publikacje »

2014-3

zeszyt-3982-elektronika-konstrukcje-technologie-zastosowania-2014-3.html

 
W numerze m.in.:
Możliwości realizacji usług telekomunikacyjnych w morskim systemie INMARSAT Fleet77 (Jerzy Czajkowski )
Morski system INMARSAT Fleet77 jest przeznaczony do w pełni zintegrowanego satelitarnego systemu radiokomunikacyjnego umożliwiającego korzystanie w żegludze morskiej z najnowocześniejszych zdobyczy technik informacyjnych, w tym transmi-sji danych i poczty elektronicznej. Zapewnia przy tym realizację łączności dla alarmowania i potrzeb bezpieczeństwa statków oraz żeglugi. W [5] autor przedstawił ogólną strukturę systemu INMARSAT Fleet77, natomiast w niniejszym artykule scharakteryzowano możliwości realizacji usług telekomunikacyjnych w tym systemie. Celowym jest jednak odniesienie do artykułu autora w Elektronice 11/2012 [4] gdzie omawiając rozwój bardzo ważnego dla systemu GMDSS - systemu INMARSAT opisano rozwój członu satelitarnego tworząc satelity czwartej generacji. Otóż satelity te umożliwiają pracę z szerokimi wiązkami regionalnymi (wide beam) oraz wąskimi wiązkami punktowymi (spot beam). Usytuowanie trzech satelitów na orbicie geostacjonarnej umożliwia następujące pokrycie kuli ziemskiej:Rejony pokrycia satelitarnego I-4 - Americas - pokrycie Oceanu Wielkiego i Atlantyku - 098°W; I-4 - EMEA - (Europe, Middle East, Africa) - pokrycie Oceanu Atlantyckiego i Indyjskiego - 025°E; I-4 - Asia-Pacific - pokrycie Oceanu Indyjskiego i Wielkiego - 143,5°E. Na rysunku 1 przedstawiono pokrycie radiowe wiązkami punktowymi satelitów INMARSAT I-4, a na rys. 2 satelitę czwartej generacji. W tabeli przedstawiono dane techniczno-operacyjne satelitów I-4. Każdy satelita I-4 może generować 19 szerokich wiązek regionalnych oraz 254 wąskie wiązki punktowe. Wiązki te mogą być szeroko rekonfigurowane i mogą koncentrować się w dowolnym miejscu na Ziemi tak, aby zapewnić dodatkową przepustowość tam, gdzie jest to wymagane. Satelita I-4 w porównaniu ze swoim poprzednikiem I-3 dysponuje 60-krotnie większą pojemnością dzięki antenom Rys. 1. Pokrycie wiązkami punktowymi satelitów INMARSAT-4 Rys. 2. Satelita czwartej generacji I-4 systemu IN... więcej»

Uproszczona metoda obliczania warunków pracy tranzystorów w rezonansowych wzmacniaczach mocy klasy DE (Juliusz Modzelewski)
Kluczowane rezonansowe wzmacniacze mocy w radiotechnice mogą pełnić rolę stopni mocy nadajników systemów radiowych z modulacją częstotliwości (FM) i fazy (PM) oraz modulatorów mocy w nadajnikach z modulacją amplitudy (AM). Obecnie modulatory amplitudy o dużej mocy są także stosowane w wysokosprawnych liniowych wzmacniaczach mocy pracujących w układzie EE R (Envelope Elimination and Restoration) wykorzystywanych w nadajnikach systemów cyfrowych. Natomiast w energoelektronice wzmacniacze kluczowane pełnią funkcję przetworników energii źródła prądu stałego w energię wielkiej częstotliwości, dlatego zamiast określenia wzmacniacz często używane jest określenie inwerter (np. [1, 2] albo falownik (np. [3, 4]. Ideę kluczowanego wzmacniacza rezonansowego klasy DE przedstawiono w 1975 roku (Żukow, Kozyriew [5]). W wzmacniaczu tym zostały wyeliminowane podstawowe wady rezonansowego wzmacniacza mocy klasy D [6, 7]. Powstawanie prądu skrośnego wskutek pokrywania się impulsów bramkowych usunięto poprzez zwężenie tych impulsów tak, aby w cyklu pracy wzmacniacza pojawił się czas martwy, w którym oba tranzystory mocy są wyłączone (rys. 1). Modyfikację taką można zrealizować m. in. poprzez sterowanie tranzystorów przebiegiem sinusoidalnym [6, 7]. Natomiast straty mocy wywołane włączaniem tranzystorów "pod napięciem" (non-Zero-Voltage Switching) i aktywnym ładowaniem i rozładowywaniem pojemności wyjściowych tranzystorów zostały wyeliminowane poprzez zastosowanie odstrojonego obwodu rezonansowego o charakterze indukcyjnym. Dzięki temu w czasie martwym pojemności te są przeładowywane bezstratnie prądem wyjściowego obwodu rezonansowego. Takie bierne przeładowywanie pojemności wyjściowych redukuje także szybkość narastania napięcia na tranzystorze wyłączonym, co ogranicza groźbę jego pasożytniczego włączenia (i w efekcie powstania prądu skrośnego). Wzmacniacz taki nazywany był początkowo wzmacniaczem klasy D ... więcej»

Pokładowy rejestrator niebezpiecznych zdarzeń w ruchu drogowym (Stanisław Konatowski, Maciej Gołgowski)
Pokładowy rejestrator jest urządzeniem zapisującym wybrane i ważne dane charakteryzujące stan pojazdu, w celu określenia okoliczności zaistniałego niebezpiecznego zdarzenia (kolizji). Przy użyciu tych informacji określana jest przyczyna, przebieg zdarzenia, a także mogą być podjęte działania prewencyjne eliminujące podobne sytuacje. Analiza zarejestrowanych danych może być pomocna także w poprawie infrastruktury drogowej, konstrukcji pojazdów oraz w projektowaniu systemów wspierających kierowcę. Stąd każde pokładowe urządzenie rejestrujące ma wpływ na poprawę poziomu bezpieczeństwa w ruchu drogowym [1-2, 5-6]. Aktualnie, w przypadku niebezpiecznych zdarzeń, można odtworzyć dane z przebiegu wypadku bez wprowadzania dodatkowych urządzeń elektronicznych odpowiedzialnych za sterowanie układami pojazdu. Jednakże proces ten bywa często mało wiarygodny. W pojazdach samochodowych, w których powszechnie stosowane są różne układy elektroniczne, nie ma technicznych przeszkód, aby dodatkowo instalować rejestratory. Na rynku motoryzacyjnym dostępne są urządzenia o działaniu podobnym do lotniczych rejestratorów lotu [7]. Zadaniem ich jest rejestracja wielkości charakteryzujących ruch pojazdu, aktywność kierowcy oraz stanu otoczenia. Artykuł zawiera projekt systemu rejestrującego niebezpieczne zdarzenia drogowe. Rodzaje pokładowych urządzeń rejestrujących W Unii Europejskiej pokładowe rejestratory parametrów funkcjonują pod nazwą EDR (Event Data Recorder) lub UDS (Unfall Daten Speicher), a na terenie USA jako ADR (Accident Data Recorder) [2, 5]. Charakterystyka standardów rejestracji Urządzenia produkcji amerykańskiej - ADR, działające w oparciu o algorytmy opracowane przez National Highway Traffic Safety Administration, kładą nacisk na bezpieczeństwo nie tylko kierowcy ale również pasażerów. Standardy europejskie, stosowane w odpowiednikach urządzeń ADR, są jednak bardziej rygorystyczne w zakresie inicjowania zapisu, czasu trwania zapis... więcej»

Przestrzenne charakterystyki wiązek promieniowania emitowanego przez lasery półprzewodnikowe (BOHDAN MROZIEWICZ, EMILIA PRUSZYŃSKA-KARBOWNIK, KAZIMIERZ REGIŃSKI)
Przestrzenny rozkład natężenia pola w wiązce emitowanej przez laser jest z punktu widzenia jego użytkownika jedną z najważniejszych, obok mocy wyjściowej i długości fali, charakterystyką tego urządzenia. Kształt i wewnętrzna struktura polowa emitowanej wiązki decyduje bowiem o możliwości jej dalszej obróbki optycznej i przystosowania jej do wymaganych celów, np. do uzyskania możliwie wysokiego natężenia napromienienia (W/cm2), lub zogniskowania wiązki na możliwie małym obszarze. Wymagania takie stawiane są w odniesieniu do układów optycznych stosowanych w telekomunikacji światłowodowej czy też w otwartej przestrzeni, a także np. w urządzeniach do spektroskopii. Szczególnie istotne okazały się one w przypadku budowanych ostatnio urządzeń laserowych do cięcia metali lub innych materiałów z wykorzystaniem zjawiska ablacji przy jednoczesnym uniknięciu odparowywania naświetlanego materiału w wyniku jego nagrzewania. Te ostatnie zastosowania nie dotyczą wprawdzie jak dotąd kwantowych laserów kaskadowych, ale okazały się już szczególnie ważne w odniesieniu do laserów diodowych. Mierniki rozkładu natężenia pola w wiązce laserowej zwane potocznie profilometrami (ang. profilers), dedykowane do pomiarów wiązek generowanych przez lasery różnych rodzajów, są obecnie produkowane przez wiele firm i w zasadzie jako takie przestały być przedmiotem specjalnych badań. Stosowane w tych miernikach metody pomiaru rozkładu natężenia pola można ogólnie podzielić na dwie grupy: - metody oparte na wykorzystaniu matryc detektorowych, - metody oparte na mechanicznym skanowaniu i pomiarze pola w przekroju poprzecznym wiązki za pomocą pojedynczego detektora. Te ostatnie dzielą się na 3 podgrupy a mianowicie: skanowanie szczelinowe, skanowanie krawędziowe (tzw. knife-edge) oraz skanowanie dwuwymiarowe detektorem o małej aperturze. Każda z tych technik ma swoje zalety i wady zależnie od parametrów mierzonej wiązki laserowej (patrz ref. [1-3]). W szczególno... więcej»

Architektura sprzętowego modułu predykcji wewnątrzramkowej Intra dla standardu H.265/HEVC (Andrzej Abramowski, Grzegorz Pastuszak)
Ostatnie lata charakteryzują się gwałtownym rozwojem technologii mobilnych, telewizji cyfrowej oraz szerokopasmowego Internetu. Postępy w tych dziedzinach wiążą się z dość znaczącym wzrostem ilości przesyłanych informacji wideo, co znacząco obciąża obecnie istniejące łącza telekomunikacyjne. W efekcie bardzo duża liczba firm oraz instytucji naukowych pracuje nad sposobami ograniczenia rozmiaru tego typu danych oraz wymaganej przez nie przepływności. Zarazem współcześni konsumenci są zainteresowani zdecydowanym wzrostem jakości oglądanych materiałów. Aby pogodzić te sprzeczne zapotrzebowania w 2010 r. grupa ekspertów Joint Collaborative Team on Video Coding rozpoczęła prace nad nowym standardem kompresji wideo pod kodową nazwą High Efficiency Video Coding (HEVC). Za cel postawiono sobie ograniczenie o połowę przepływności zakodowanej sekwencji wideo w porównaniu do H.264/AVC (Advanced Video Coding), przy jednoczesnym zachowaniu jakości ocenianej miarami subiektywnymi. Rozwój standardu trwał ponad trzy lata i zakończył się ostatecznym jego przyjęciem w 2013 r. przez ISO (International Organization for Standardization) i ITU Telecommunication Standardization Sector jako H.265/HEVC ([1]). Składnia standardu H.265/HEVC wykorzystuje regularne struktury drzewiaste, zapisywane w strumieniu wyjściowym. W porównaniu do jego poprzednika, H.264/AVC, istotnie rozbudowana została predykcja wewnątrzramkowa (Intra), predykcja międzyramkowa (Inter) oraz algorytmy transformacji. Wiąże się to ze zwiększoną złożonością obliczeniową, jednak wybrane rozwiązania powinny umożliwić zrównoleglenie znaczącej części operacji. W chwili obecnej opracowywane są dalsze rozszerzenia m. in. wersja skalowalna oraz dostosowana do kodowania sekwencji trójwymiarowych. Predykcja wewnątrzramkowa (Intra) Jedną z podstawowych technik w kodowaniu wideo jest predykcja wewnątrzramkowa. Wykorzystuje ona uprzednio zakodowane próbki z danej ramki do przewidywania poprze... więcej»

Zobacz wszystkie publikacje »

2014-2

zeszyt-3952-elektronika-konstrukcje-technologie-zastosowania-2014-2.html

 
W numerze m.in.:
Fotoniczne struktury rozłożone i inteligentne - EWOFS2013 (Ryszard S.Romaniuk)
Czujnikowe konferencje światłowodowe - międzynarodowe i krajowe Światowa seria konferencji na temat czujników światłowodowych OFS dała początek, kilka lat temu, cyklicznym Europejskim Warsztatom Czujników Światłowodowych EWOFS. Potrzeba utworzenia takich warsztatów narodziła się w wyniku uczestnictwa w konferencji OFS bardzo licznej grupy studentów i młodych uczonych z dziedziny fotoniki światłowodowej. Czujniki światłowodowe, a ogólniej ujmując czujniki fotoniczne, są przedmiotem intensywnych badań od kilku dziesięcioleci. Środowiska naukowo - techniczne aktywne w tej dziedzinie spotykają się okresowo w skali lokalnej i globalnej. Konferencje na temat czujników fotonicznych są organizowane przez IEEE Photonics Society, OSA - Optical Society of America, SPIE - The International Society for Optical Engineering, a także przez optyczne i fotoniczne organizacje narodowe. W kraju środowisko naukowo - techniczne czujników fotonicznych spotyka się co półtora roku z okazji cyklu konferencji "Światłowody i ich zastosowania" OFTA, organizowanych naprzemiennie przez światłowodowe ośrodki technologiczne i aplikacyjne w Politechnice Białostockiej i Politechnice Lubelskiej we współpracy z UMCS. Najbliższa konferencja z tego cyklu, piętnasta z kolei, odbyła się w Białymstoku i Lipowym Moście (Puszcza Białowieska) na przełomie stycznia i lutego 2014 r. Pierwsza krajowa konferencja światłowodowa odbyła się w Jabłonnej, w Pałacu PAN, w lutym 1976 r. Obecnie w krajowych konferencjach Światłowody i ich zastosowania bierze udział ok. 150 specjalistów i liczna grupa studentów i doktorantów. Zakres tematyczny tej ważnej konferencji krajowej, gromadzącej zwykle wszystkich specjalistów z Polski oraz gości zagranicznych, jest następujący: technologia światłowodów, materiały dla optoelektroniki i fotoniki, materiały luminescencyjne i domieszkowane ziemiami rzadkimi, elementy i układy fotoniczne i optoelektroniczne, metrologia światłowodowa optyczna i... więcej»

Rozporządzenie eIDAS - na pograniczu technologii i prawa (Daniel Wachnik )
W wyniku prac regulujących obszar podpisu elektronicznego została wydana Dyrektywa 1999/93/WE dotycząca wspólnotowych ram podpisu elektronicznego [1]. W trakcie 10-ciu lat obowiązywania Dyrektywy nie odnotowano oczekiwanego nasycenia rynku podpisów elektronicznych. W roku 2008 Komisja Europejska zaadoptowała plan działań w zakresie e-podpisu i e-identyfikacji, który zaowocował między innymi wytworzeniem raportów CRO - BIE S [2]. Raporty CRO BIE S stanowiły istotny wkład przy określeniu zakresu mandatu standaryzacyjnego M/460, wydanego w 2009 roku przez Komisję Europejską. Mandat ten miał na celu uporządkowanie standardów związanych z szeroko pojętymi usługami zaufania.Początkowo, rozważano zastosowano możliwość nowelizacji Dyrektywy 1999/93/EC , jednak w na podstawie analiz postanowiono, że najkorzystniejszym aktem prawnym, z punktu widzenia harmonizacji usług jest Rozporządzenie unijne. Draft rozporządzenia został opublikowany przez Komisję Europejską w dniu 04.06.2012 roku [3], a sam fakt publikacji został po raz pierwszy ogłoszony publicznie w Polsce, w trakcie konferencji EFPE . Warto nadmienić, że Rozporządzenie Unii Europejskiej jest aktem prawnym zasadniczo różniącym się od Dyrektywy. O ile Dyrektywa jest implementowana przez kraje członkowskie w prawie krajowym, o tyle Rozporządzenie nie pozostawia tego rodzaju swobody. Rozporządzenie jest stosowane bezpośrednio. Zastosowanie tego rodzaju aktu oznacza z jednej strony brak rozbieżności na poziomie krajów członkowskich, ale oznacza także, że państwa członkowskie nie mają możliwości korygowania tych przepisów, które z ich punk-tu widzenia są uciążliwe. Przykładowo, jeśli zapisy rozporządzenia będą wykluczać możliwość zastosowania w kontaktach z administracją publiczną określonego rodzaju mechanizmu, nie będzie można stosować tego mechanizmu, bez względu na fakt jakie koszty z tego powodu będzie musiało poni... więcej»

Skanowania optyczne powierzchni jako narzędzia oceny ilościowej i jakościowej powierzchni warstw i powłok (Konstanty W. Marszałek, Janusz Jaglarz )
Metody skaningu optycznego stosowane są do pomiarów topografii cienkich przeźroczystych warstw oraz warstw wierzchnich. Metody optyczne poza topografią mogą również obrazować zmiany w obszarze objętości warstwy (np.: centra rozpraszania w warstwie, defekty krystaliczne itp.). W badaniach optycznych powierzchnie warstwowe można skanować przez przesuwanie wiązki światła białego lub laserowego prostopadle do próbek z jednoczesnym pomiarem współczynnika odbicia. Na takiej metodyce pomiarowej opiera się profilometria optyczna (PO ). Inną metodą skaningową jest skaningowa elipsometria spektroskopowa (SSE) wykorzystująca światło spolaryzowane. W tej metodzie liniowo spolaryzowana wiązka światła jest przesuwana wzdłuż próbki przy ustalonym kącie padania na próbkę. W każdym kroku wyznaczana jest zmiana polaryzacji światła odbitego od badanej warstwy., Profilometria optyczna (PO ) jest jedną z odmian metod profilometrycznych, w której igła skanująca (jak to ma miejsce w mikroskopii AFM, czy profilometrii stykowej) została zastąpiona wiązką światła [1-4]. PO jest metodą bezkontaktową więc nie niszczy próbek, jak to często ma miejsce w profilometrii mechanicznej oraz w AFM przy badaniu materiałów miękkich np. polimerów. W połączeniu z metodami stykowymi może służyć do rozdzielenia rozproszenia światła spowodowanego zmiennym składem materiałowym powierzchni od topograficznego, wynikającego z istnienia nierówności. [5]. Inną niewątpliwą zaletą PO jest możliwość pomiaru grubości warstw zmieniających się wzdłuż powierzchni na którą warstwa została naniesiona. W PO rozdzielczość boczna jest zdeterminowana przez średnicę wiązki światła. W nowoczesnych profilometrach stosowane są skolimowane wiązki laserowe o średnicy poniżej 1 μm [6]. W PO próbka oświetlana jest relatywnie małym w stosunku do powierzchni próbki obszarze. Tą cechą PO różni się od standardowej mikroskopia optycznej w której oświetlana jest duża powierzchnia próbek. Tę wł... więcej»

Toshiba AT10A-103
Firma Toshiba Europe, oddział w Warszawie, udostępniła naszej redakcji swój nowy tablet oznaczony AT10A-103. Tablet jest przenośnym komputerem większym nieco niż telefon komórkowy, którego główną, widoczną cechą jest duży ekran dotykowy (Multi-Touch). W przeciwieństwie do większości klasycznych urządzeń tablety nowszego typu nie mają fizycznej klawiatury, użytkownik posługuje się klawiaturą wirtualną dotykając ekranu palcem.W odróżnieniu od kompu... więcej»

Poszukiwanie rozwiązań problemu plecakowego z wykorzystaniem algorytmu genetycznego (Zbigniew Handzel, Mirosław Gajer )
Problem plecakowy należy do klasy problemów NP -zupełnych. Zagadnienia określane mianem NP -zupełnych stanowią klasę problemów obliczeniowych, w przypadku których nie jest znany żaden algorytm rozwiązujący dowolny z tego rodzaju problemów w czasie wielomianowym. Co interesujące, jak dotychczas nikomu nie udało się jeszcze udowodnić, że taki algorytm rozwiązujący któreś z zagadnień NP -zupełnych w czasie wielomianowym nie istnieje. Problem zagadnień NP -zupełnych jest zatem nadal otwarty i wciąż czeka na swe ostateczne rozwiązanie, stanowiąc tym samym chyba najbardziej doniosłą i zarazem jakże niezwykle intrygującą zagadkę informatyki teoretycznej [1]. Co ciekawe, wszystkie problemy obliczeniowe należące do zbioru zagadnień NP -zupełnych są wzajemnie równoważne w tym sensie, że każdy z nich można przetransformować do dowolnego innego w czasie wielomianowym. W związku z tym, gdyby został znaleziony algorytm rozwiązujący w czasie wielomianowym dowolny z problemów NP -zupełnych, wówczas automatycznie wszystkie pozostałe zagadnienia NP -zupełne byłby także rozwiązywalne w czasie wielomianowym. Niestety, jak już uprzednio wspomniano, nikomu nie udało się jeszcze odnaleźć takiego algorytmu bądź udowodnić, że jego znalezienie nie jest możliwe. Istniejący stan rzeczy powoduje, że na potrzeby praktycznych obliczeń zagadnienia NP -zupełne są rozwiązywane jedynie metodami heurystycznymi. W takim wypadku już z góry godzimy się z faktem, że rozwiązanie optymalne nigdy nie zostanie odnalezione, ponieważ prawdopodobieństwo jego przypadkowego natrafienia w procesie poszukiwań wynosi praktycznie zero (choć teoretycznie nie jest to zdarzenie niemożliwe). Natomiast w praktyce poszukujemy rozwiązań suboptymalnych o możliwie jak najlepszej jakości [2]. Tematyka artykułu dotyczy wykorzystania algorytmu genetycznego w celu poszukiwania rozwiązań zagadnienia plecakowego, które należy do klasy problemów NP -zupełnych. Problem plecakowy Załóżmy, że... więcej»

Zobacz wszystkie publikacje »

2014-1

zeszyt-3928-elektronika-konstrukcje-technologie-zastosowania-2014-1.html

 
W numerze m.in.:
Przekład komputerowy typu Human-Aided Machine Translation oparty na języku pośredniczącym (Zbigniew Handzel, Mirosław Gajer)
Przekład komputerowy jest interdyscyplinarną dziedziną wiedzy zaliczaną w skład szerszej dyscypliny - lingwistyki komputerowej. Za historyczny początek badań nad automatyzacją przekładu uznaje się wystąpienie w 1947 roku Amerykanina Warrena Weavera, który w swym słynnym memorandum wzywał wybitnych badaczy tamtej epoki do zajęcia się tą niezwykle pasjonującą, ale także niezmiernie skomplikowaną problematyką [1]. Pierwsza grupa badawcza zajmująca się automatyzacją przekładu została powołana na amerykańskim uniwersytecie MIT w 1952 roku. Z kolei w roku 1954 miał miejsce pierwszy, spektakularny, jak na owe czasy, pokaz działającego systemu komputerowego przekładu. Podczas rozważanego pokazu komputer dokonał automatycznego tłumaczenia kilkudziesięciu prostych zdań zapisanych w języku rosyjskim na język angielski. Na fali entuzjazmu, który zapanował po tym wydarzeniu, pojawiły się opinie, że w już niedalekiej przyszłości zawód tłumacza stanie się całkowicie zbyteczny, ponieważ cała dotychczasowa działalność translatorska zostanie powierzona komputerom [2]. Obecnie od omawianych wydarzeń upłynęło już prawie sześćdziesiąt lat, a stawiane wówczas prognozy bynajmniej jeszcze się nie spełniły. Przykład ten dowodzi, jak niezwykle trudną sprawą jest przewidywanie przyszłości i że tak na prawdę nigdy nie będziemy w stanie dokładnie przewidzieć naszej przyszłej wiedzy i bezpośrednio wynikającego z niej poziomu zaawansowania wybranych rozwiązań technicznych [3]. Dostępne w epoce nam współczesnej rozwiązania informatyczne w zakresie automatyzacji przekładu koncentrują się głównie wokół systemów w pełni automatycznych FAMT (ang. Fully-Automatic Machine Translation), w przypadku których ich użytkownik zadaje na wejście tekst zapisany w języku źródłowym, a na wyjściu tego rodzaju systemu oczekuje pojawienia się po pewnym czasie gotowego już przekładu tekstu wyjściowego na język docelowy. Niestety, jakość istniejących obecnie w pełni automatycz... więcej»

Investigation of integrated circuit thermal parameters for different package configurations (Maciej Frankiewicz, Adam Gołda, Andrzej Kos)
Big power consumption resulting with overheating is an important problem in designing high frequency integrated circuits [1]. As a consequence thermal issues of the circuit work must be considered. That is the reason why precise information on thermal parameters is necessary. The paper presents measurements of thermal parameters of an integrated circuit. The measurements were done for a test chip consisting of some heat sources and temperature sensors. Presented results were gathered in several different chip configurations. Finally, software has been created for verification of the results calculated by the model. Calculated values of the temperature are compared with ones measured in the chip. Measurement system To obtain information about thermal parameters (thermal resistance, thermal capacity and thermal time constant) of the integrated circuit under different test conditions a specialized measurement system is needed. In presented case it is based on ASIC (Application Specified Integrated Circuit) dedicated for thermal investigations and EFM32 microcontroller. The test chip was designed and fabricated in CMOS 0.7 [mikro]m technology with 5 V supply voltage. Structure of the integrated circuit is presented in Fig. 1A [2]. Elements marked as ‘A’ are analogue parts while 'D' are digital ones. They play a role of heat ... więcej»

Methods and tools for multi-criteria selection of sensor system components (Ryszard Świerczyński, Krzysztof Urbański, Artur Wymysłowski )
Choosing an optimal set of components required to build a complete sensor system is challenging and time-consuming task due to huge amount of available electronic components and constrains (input parameters) which have to be taken into account during this process [1]. Predicted fast growth of sensor systems market in the near future (for example, environmental sensor and monitoring market is expected to reach $15.3 billion in 2016 based on BCC Research report) requires better, more efficient design tools and methods to shorten time-to-market period for the new products. It is especially important not just to re-use "well-known and proven solutions", but to choose the best available system components. Without support in the form of computer tools, this task is virtually impossible. Single device selection tools (search engines) are widely supported by electronic component manufacturers and distributors. It is easy to find a device meeting specified requirements, even across various manufacturers. The matter becomes more difficult when one needs to select the optimum set of components at the level of the whole system. In this paper a new approach and design tool is proposed to speed-up designing process of complex sensor system. Emphasis is placed on providing ready-to-use software for selection of a set of available components rather than DEBYS approach proposed for ASIS systems in [3, 4]. Combined database containing detailed component parameters and parametric models in conjunction with external simulatio... więcej»

Ink-jet printed dielectric layers containing BaTiO3 nanopowders (Marcin Słoma, Karol Lenkiewicz, Grzegorz Wróblewski, Anna Młożniak , Małgorzata Jakubowska)
Printed electronics is a new method for making electronics applications, but with growing industry and market is becoming more valuable year by year. In new technologies requiring improved precision it is important to obtain good repeatability and reliability, especially when dosing small amount of materials. For that reason ink-jet printing is one of the most most popular printing technique for precise printed electronics. It is an appropriate method for low cost application and small quantity production in industry or for research and laboratory tests. Ink-jet is a non-contact additive method and does not require stencil, mesh or rotating rollers, ink goes directly from dispenser head to substrate. For that reason loss of material is minimized. Small diameter of nozzle allows to obtain very thin and narrow lines. The smallest line width is 14 - 25 μm [1]. Better efficiency was observed for polymeric photovoltaic device manufactured by ink-jet printing than the same layer thickness made by spin-coating. The reason was faster ink drying in ink-jet method [2]. Non-contact method allows to make 3D-printing such as abluminal coating for stents [3]. Ink-jet printing is an appropriate method for manufacturing passive electronic components like resistors, capacitors [4], biomedical devices like sensors, diagnostic elements [5] and RFID tags [6], organic transistors [7]. Ink-... więcej»

Investigation of electrocatalytic gas sensor properties in presence of chlorine (Anna Strzelczyk, Grzegorz Jasiński, Bogdan Andrzej Chachulski, Piotr Jasiński)
Gas sensors based on solid state electrolytes have many advantages, such as durability, low cost and long-term stability. There is a number of types of solid state gas sensors. The main disadvantage of such sensors is usually lack of selectivity. Electrochemical sensors operating in electrocatalytic mode seem to have improved selectivity due to its particular working mechanism [1]. Operation principle of such sensors is based on the excitation of a galvanic cell with a periodic triangular voltage, while current response is measured. During voltage sweep an oxidation and a reduction of chemical species occurs on electrodes surface. As a result sensor response in a form of an unique voltammetric characteristic is obtained. Shape of that current-voltage (I-V) curve depends on type and composition of gases in the sensor surrounding [2]. Earlier studies indicated that electrocatalytic gas sensors based on Nasicon can be used for NO2 [1, 3, 4], SO2 [1], NH3 [4, 5] and H2S [6] detection. Optimal working temperature was determined for NO2 (175ºC), NH3 (350 C) and H2S (300 C). In this study investigation of electrocatalytic sensors properties in the presence of chlorine are presented. Experimental Nasicon pellets were prepared using the sol-gel method according to procedure [7]. Process of obtaining... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»