profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły
r e k l a m a

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA ›
ELEKTRONIKA - KONSTRUKCJE, TECHNOLOGIE, ZASTOSOWANIA › 2013-3
 

Publikacja: Międzynarodowy zderzacz liniowy
Autor: Ryszard S. Romaniuk  

W tej chwili najdłuższym akceleratorem liniowym jest ok. 3 km maszyna w Stanford (SLAC) o energii 50 GeV. Maszyna ILC - Międzynarodowy Zderzacz Liniowy (International Linear Collider) jest jednym z obecnie opracowywanych projektów podwójnego akceleratora liniowego e+e-, o docelowej energii kolizji wiązek elektronowej i pozytronowej ponad 1 TeV. Alternatywnym projektem dla ILC jest Cernowska maszyna CLIC o docelowej energii zderzenia leptonów 3 TeV. Maszyna ma stanowić istotne komplementarne uzupełnienie dla potencjału badawczego Ceranowskiego kompleksu badawczego LHC o docelowej energii zderzenia protonów 14 TeV. Wymagana długość maszyny będzie wynosiła co najmniej 30 km, a niektóre wersje projektu wymieniają ok. 50 km. Nadprzewodzące liniaki ILC będą wykonane w technologii TESLA 1,3 GHz, wykorzystującej mikrofalowe wnęki nadprzewodzące z ultraczystego niobu klasy RRR lub Nb3Sn, o bardzo dużej dobroci, pracujące z gradientem przyspieszającym prawdopodobnie ponad 35 MV/m, a niektóre wersje projektu wymieniają ograniczenie rzędu 50 MV/m. Zespoły z Polski (Kraków. Warszawa, Wrocław - IFJ-PAN, AGH, UJ, NCBJ, UW, PW, PWr, INT-PAN) uczestniczą w opracowywaniu projektu tej maszyny, detektorów, kriogeniki i systemów pomiarowo-kontrolnych. W chwili obecnej wydaje się, że maszyna ILC będzie najprawdopodobniej budowana w Japonii w latach 2016-2026. Jeśli to się spełni, Japonia stanie się trzecią potęgą akceleratorową świata po CERN i USA. W Niemczech, w DESY Hamburg, budowany jest obecnie liniak elektronowy o długości ok. 3 km, który ma stanowić zasilanie dla rentgenowskiego lasera FEL. Układy sterowania i timingu są projektowane i wytwarzane z udziałem Politechnik Warszawskiej i Łódzkiej. Brak w naszym kraju wielkiej infrastruktury badawczej o skali przynajmniej Europejskiej i o znacznym potencjale odkrywczym pozostawia nas poza elitarnymi klubami właścicieli takich infrastruktur w różnych dziedzinach: fizyki cząsteczkowej, astronomii[...]

 

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2012), also from March - year 2013.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 464,40 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 417,96 zł *)
prenumerata papierowa roczna - 390,60 zł
prenumerata papierowa półroczna - 195,30 zł
prenumerata papierowa kwartalna - 97,65 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

 

POZOSTAŁE PUBLIKACJE W TYM ZESZYCIE:
Akceleratory dla społeczeństwa - TIARA 2012
 
Ryszard S. Romaniuk  
Konsorcjum TIARA i Projekt EU FP7 TIARA-PP TIARA jest Europejskim Konsorcjum Techniki Akceleratorowej, prowadzącym projekty badawcze, techniczne, sieciowe i infrastrukturalne. Celem działania konsorcjum TIARA i prowadzonego przez nie ramowego projektu Europejskiego EU FP7 (Test Infrastructure and Akcelerator Research Area) jest integracja krajowych i międzynarodowych akceleratorowych infrastruktur badawczych i rozwojowych w rodzaj pojedynczego, dobrze skoordynowanego, europejskiego obszaru badawczego. Konsorcjum gromadzi wszystkie ośrodki europejskie posiadające dużą infrastrukturę akceleratorową. Pozostałe ośrodki, jak np. uniwersytety, są afiliowane jako członkowie stowarzyszeni. W Polsce koordynatorem projektu TIARA jest Instytut Fizyki Jądrowej PAN w Krakowie, a uczestnikami są laboratoria krajowe zajmujące się różnymi aspektami techniki akceleratorowej np.: IFJ-PAN, AGH, NCBJ w Świerku, Politechnika Warszawska, Politechnika Wrocławska, Politechnika Łódzka. IFJ-PAN jest oficjalnym członkiem konsorcjum TIARA i reprezentuje wszystkie laboratoria zgromadzone w Polskim Konsorcjum TIARA-PL. Członkami TIARA są: CEA-Francja, CERN-Szwajcaria, CIEMAT-Hiszpania, CNRSFrancja, DESY-Niemcy, GSI-Niemcy, IFJ-PAN Kraków (reprezentujący polskie konsorcjum), INFN-Włochy, PSI-Szwajcaria, STFC-Anglia, Uniwersytet Uppsala (reprezentujący konsorcjum nordyckie - Dania, Finlandia, Norwegia, Szwecja). TIARA reprezentuje bardzo ciekawe rozwiązanie projektu Europejskiego, określanego mianem Faza Przygotowawcza PP (Preparatory Phase). Głównym celem TIARA jest po prostu, i prawie jedynie INTEGRACJA krajowych i międzynarodowych laboratoriów akceleratorowych reprezentujących znaczne infrastruktury badawcze. Oczekiwanym rezultatem jest stworzenie jednego mocnego, Europejskiego, rozproszonego, ale silnie skoordynowanego ośrodka badawczo-rozwojowego, dysponującego nieporównywalnym potencjałem odkrywczym i rozwojowym (innowacje, kompetencje, konkurencyjn[...]
 
Audio database for the assessment of singing voice quality of choir members
 
Mirosław Łazoryszczak  Edward Półrolniczak  
The direct motivation for taking up research on the appraisal of the quality of one’s singing voice is the need to support the training of the production of voice appropriate for choir groups. The audio database for the development of choir singing voices as described in the herewith article was created with the participation of choristers of the Academic Choir of the West Pomeranian University of Technology of Szczecin. One of the aims of a choir as a whole is the constant development of artistic performance. Therefore, the possibilities of shaping the sound of the whole group are important. The sound of a group depends largely on the vocal possibilities and abilities of the particular members of the choir. The requirements for nonprofessional and semi-professional choir singers are not as high as they are in the case of professional singers. Nonetheless, the possibility of defining the criteria for appraisal may facilitate work of a vocal coach and a conductor. Some criteria of appraisal as properly selected may allow for self-correction of selected voice parameters. To be able to define the parameters subject to appraisal (for vocal training with a trainer or for self-teaching) an audio database of the singing voice, appropriately large and consistent, is needed. The majority of research as published is based on databases created for particular tasks, however there is also some which uses generally available databases. The following shows the possibility of using two types of databases: - databases with a local character (not publicly available), which contain samples of singing for a particular task, - commonly-available databases (through the Internet directly or on request, sometimes for a fee). For example, in [1] the authors used the AIST Humming Database (AIST-HDB) [3]. This database is available on request (there is certain charge involved however). The database is owned by Advanced Industrial Science and Te[...]
 
Demonstrator radaru szumowego widzenia przez ścianę
 
BRONISŁAW STEC  WALDEMAR SUSEK  ADAM SŁOWIK  MIROSŁAW CZYŻEWSKI  CZESŁAW REĆKO  
Radary szumowe ze względu na swoje specyficzne cechy znajdują coraz szersze zastosowania w aplikacjach zarówno specjalnych, jak i komercyjnych. Cechy sygnałów szumowych są znane od kilkudziesięciu lat, jednak problem z ich generacją, przy zachowaniu odpowiednich parametrów sygnału nastręczał wiele problemów. Również odbiór tego typu sygnałów i związana z nim konieczność przetwarzania, powodowały że konstrukcje takie powstawały na zasadzie prac badawczych, a nie urządzeń docelowo wykorzystywanych powszechnie. Również wiązało się to z dostępnością samych źródeł sygnałów szumowych i zapewnienie odpowiednio stabilnych warunków ich pracy, a więc również stabilności parametrów. Jak w wielu dziedzinach elektroniki, tak również i w źródłach sygnałów szumowych nastąpił duży postęp, zarówno pod względem stabilności parametrów, możliwości ich zmiany, a przede wszystkim ogólnej dostępności, dotyczy to szczególnie źródeł szumowych na pasmo mikrofalowe. Radary szumowe to radary, które wykorzystują sygnały losowe lub pseudolosowe do oświetlenia celu [1]. Stanowią one oddzielną grupę w stosunku do klasycznych radarów impulsowych i dopplerowsko-impulsowych, stosowanych w bardzo wielu aplikacjach wojskowych i cywilnych [2]. Radary impulsowe charakteryzują się bardzo dobrą rozdzielczością w odległości dzięki zastosowaniu szerokopasmowych i odpowiednio długich w czasie impulsów i zaawansowanych cyfrowych technik przetwarzania sygnałów. Radary te często pracują z bardzo dużą mocą w impulsie, dochodzącą do pojedynczych megawatów. Występuje w nich jednak problem niejednoznaczności pomiaru częstotliwości dopplerowskiej lub niejednoznaczności pomiaru odległości. Radary szumowe, pracujące z falą ciągłą dorównują radarom impulsowym a w wielu dziedzinach mają nad nimi przewagę. Radary te emitują w przestrzeń znacznie mniejszą moc, która maksymalnie osiąga wartość do kilkuset watów. Można, więc w nich stosować nadajniki tranzystorowe, co upraszcza kons[...]
 
Efekty polowe w warstwach tlenkowych
 
Jadwiga Olesik  
Inspiracją do badań warstw tlenkowych metodami emisji elektronów był efekt Maltera odkryty podczas pomiarów współczynnika emisji wtórnej dla dielektryków [1]. Anomalna emisja wtórna była spowodowana ładowaniem się powierzchni emitera i wytworzeniem wewnętrznego pola elektrycznego w próbce. Niekontrolowany przebieg takiej emisji uniemożliwił praktyczne wykorzystanie m.in. wysokich wartości współczynnika emisji wtórnej uzyskanych w emisji malterowskiej [2, 3]. Po wytworzeniu pola o określonej wartości wewnątrz emitera można sterować procesem emisji wtórnej. W tym opracowaniu podjęto taką próbę. Na powierzchnię szkła nałożono przewodzącą warstwę typu ITO (Indium Tin Oxide). Na drugą stronę próbki nałożono elektrodę (stop NiCr), do której było przyłożone ujemne napięcie polaryzujące. Taki układ, typu kondensator umożliwiał wytworzenie wewnętrznego pola elektrycznego w próbce. Kierunek tego pola sprzyjał uwolnieniu elektronu z warstwy ITO do próżni. W ten sposób można było sterować wydajnością emisji elektronowej. Początkowo tę metodę zastosowano do wtórnej emisji elektronów indukowanej polem (WEEIP). Okazało się, że podobnie jak w emisji malterowskiej, rezultaty badań wyraźnie odbiegały od znanych dotychczas [4]. W dalszych badaniach została wyłączona wiązka pierwotna elektronów. W ten sposób badano wpływ samego pola elektrycznego w próbce na procesy nagrzewania elektronów i ich emisję do próżni. Dodatkowo oświetlano emitujące warstwy ITO promieniowaniem UV i badano wydajność emisji elektronowej indukowanej polem (EEIP) i fotoemisji (FIP). Jako warstwy emitujące elektrony wybrano domieszkowane warstwy SnO2 i In2O3, które są przewodzące i przezroczyste dla światła. Te materiały, powszechnie zwane warstwami ITO, ze względu na własności znajdują liczne zastosowania w optoelektronice [5-11]. Próbki i aparatura Jako próbek użyto płytek szklanych o grubości 0,2 mm, na które nanoszono warstwy typu ITO o grubościach z przedziału: 10&#823[...]
 
EuCARD 2
 
Ryszard S. Romaniuk  
EuCARD 2 jest projektem europejskim prowadzonym w latach 2013-2017 w ramach programu FP7. Projekt dotyczy rozwoju Europejskiej infrastruktury akceleratorowej. Dla laboratoriów krajowych jest ważny ze względu na plany budowy takiej infrastruktury w Polsce. Infrastruktura akceleratorowa o charakterze badawczym podstawowym i stosowanym stymuluje wokół niej rozwój i zastosowania przemysłowe i biomedyczne akceleratorów, badania materiałowe, kriotechnikę, mechatronikę, robotykę, a szczególnie elektronikę - jak sieciowe systemy kontrolno - pomiarowe, czujniki, systemy komputerowe, automatykę i systemy sterowania. Artykuł prezentuje przegląd wybranych zagadnień naukowych i technicznych do rozwiązania w ramach europejskiego projektu rozwoju badawczej infrastruktury akceleratorowej EuCARD-2 Enhanced European Coordination for Accelerator Research & Development. Artykuł opracowano na podstawie dokumentów Internetowych i Intranetowych dotyczących projektu Eucard-2, dokumentu FP7 EuCARD-2 DoW-312453, 2013-02- 13, a także dyskusji i materiałów przygotowawczych do złożenia wniosku o projekt do EC prowadzonych i opracowywanych w gronie inicjatorów projektu. Akceleratory badawcze Akceleratory badawcze stoją obecnie przed nowymi wyzwaniami, które powinny być rozwiązane w najbliższej przyszłości. Obecnie istniejące infrastruktury są wykorzystywane w pełni we wszystkich obszarach współczesnej fizyki akceleratorowej. Budowane są nowe kompleksy akceleratorowe, zgodne z mapą drogową ESFRI. Niektóre z nich wkrótce rozpoczynają aktywność badawczą. Międzynarodowa społeczność fizyki akceleratorowej wypracowuje decyzje strategiczne dotyczące przyszłych akceleratorów lub zasadniczych modernizacji istniejących infrastruktur w Europie. EuCARD-2 jest wspólnie wypracowanym integratorem i koordynatorem Europejskich wysiłków badawczych międzynarodowych i krajowych prowadzonych w ramach obecnie realizowanych projektów przez główne laboratoria posiadające wielk[...]
 
Interakcja tkanek człowieka ze światłem widzialnym jako biometria
 
ANDRZEJ W. MITAS  Marcin Bugdol  Seweryn Piwowarski  Maria Skotnicka  
Biometrics is increasingly being used to control access to specific areas and authorize certain resource for users. With its use, we can verify whether a person is the one he claims to be and determine this person identity (by selecting the most similar set of features of a given data set). In the broadest sense, biometrics can be divided into physiological biometrics (based on physiological characteristics of human) and behavioral biometrics (related to the human behavior) [1]. Since the physiological characteristics are visible without special tools, people were involved in that part of biometrics for many years and have acquired wealth of knowledge about it. Physiological biometrics is easy to acquisition and analyze using a simple hardware and what is more, it has a much greater distinctiveness than behavioral biometrics. Therefore, the identification and verification of the identity is more often carried out by analysis of physiological characteristics [3, 6]. The most popular method to verify the person identity is a fingerprint. This technique involves taking the fingerprint, its analysis and determination of characteristic fragments - minutiae. This method is very easy to implement, but it is sensitive to the position of the finger and its contamination [4]. To verify access to the premises a face recognition is often used. In order to accomplish this task fields of image processing, computer vision, computer graphics, pattern recognition, neural networks, and psychology are combined. The correctness of the algorithm depends on the lighting, the position of the person being tested, as well as facial expressions [2, 7]. Another widely known method of identifying is iris biometrics. The analysis begins by finding the image area where the eye is, then determined the iris field and extracted its particular characteristics [8]. These popularized biometric identification methods are not completely immune to fraud. They are [...]
 
Kompaktowy Solenoid Mionowy - perspektywa dekady
 
Ryszard S. Romaniuk  
Poza Modelem Standardowym? Akcelerator LHC i jego główne detektory, pełne elektroniki, Atlas i CMS są jednymi z głównych laboratoriów poszukujących nowej fizyki. Po dwuletnim okresie eksploatacji, zakończonym między innymi odkryciem nowej cząstki, kandydata na bozon H, nastąpi dwuletni okres modernizacji tej wielkiej maszyny. Zmodernizowany LHC będzie kontynuował poszukiwania, ze zdwojoną jasnością o poziomie 2×1034 cm-2s-1 w centrum masy (a następnie 5×1034 cm-2s-1) i energią zderzenia wiązki protonowej 14 TeV, nowych cząstek elementarnych, cząstek supersymetrycznych, nowych wymiarów, składników czarnej materii, istoty czarnej energii itp. Co mają poszukiwania nowej fizyki poza modelem standardowym SM dla rozwoju elektroniki, telekomunikacji, technologii komputerowych, a ogólnie nauk i technik informacyjnych (które są przedmiotem zainteresowania niniejszego czasopisma - Elektroniki)? A jeśli uda nam się zbudować efektywny system telekomunikacyjny wykorzystujący nie fotony (najliczniejsze cząstki elementarne znanego nam wszechświata), a neutrina (zajmujące drugie miejsce pod względem liczności). Bardzo nieporadny jeszcze pierwowzór takiego systemu cyfrowego został zademonstrowany w marcu 2012 r. w laboratorium Fermilab w Batavia Illinois pod Chicago. Do testów wykorzystano eksperyment NuMi (wiązka neutrin w Głównym Iniektorze) w celu generacji impulsowej wiązki neutrinowej o znacznym natężeniu. Transmitowano po kilkadziesiąt impulsów, każdy zawierający ok. 1013 neutrin, odseparowanych od siebie po ok. kilka sekund. Wiązka była skierowana na ok. 200-tonowy detektor Minerva oddalony od generatora o ok. 1 km w odrębnej grocie podziemnej. Wiązka neutrin pokonała ok. 250 m litej skały. Czułość detektora wynosiła ok. 10-13 a więc z każdego impulsu detekowano średnio ok. 0,8 neutrina. Uzyskano szybkość transmisji ok. 0,1 bit/s ze stopą błędów mniejszą niż 1% [1]. Niezbyt zachęcające początki? Poszukiwanie metod telekomunikacji neu[...]
 
Komputery i sztuka
 
Firmy Asus i Intel we współpracy z czasopismem Art & Business zorganizowały konkurs "ARTCOMPUTER ASUS" na najlepszą artystycznie obudowę. Laureatem konkursu okazała się obudowa komputera "Ultrabook ASUS UX32VD". Uroczyste wręczenie nagrody odbyło się 13 lutego w Galerii Fibak w Warszawie. Obudowę komputera Ultrabook ASUS UX32VD poddano pewnym modyfikacjom w stosunku do poprzednich wersji. Dolna część obudowy jest aluminiowa, a górna składa się z elementów z aluminium i tworzywa sztucznego. Pod względem wygląd[...]
 
Komputery wykorzystają zmysły w nowy sposób
 
Już po raz siódmy firma IBM zaprezentowała na konferencji w Warszawie "Next 5 in 5" - listę pięciu najważniejszych innowacji, które zmienią nasze życie w najbliższych pięciu latach. W tym roku obejmuje ona nowe sposoby wykorzystania zmysłów: dotyku, wzroku, słuchu, smaku oraz zapachu przez komputery. "Lista Next 5 in 5 pokazuje, że czekają nas w najbliższych latach rewolucyjne zmiany" - powiedział Ales Bartunek, dyrektor generalny oddziału IBM obsługującego Polskę i kraje bałtyckie. "Prognoza IBM opiera się na analizie trendów społecznych i rynkowych oraz opiniach tysięcy biologów, inżynierów i matematyków pracujących w laboratoriach badawczych firmy na całym świecie". W tym roku firma IBM przyjrzała się rozwią[...]
 
Łącze optyczne z kwantowym laserem kaskadowym
 
MAGDALENA GARLIŃSKA  Janusz MIKOŁAJCZYK  Zbigniew BIELECKI  
Niezwykle ważnym aspektem we współczesnym świecie jest dostęp do szerokopasmowego internetu. Problem ten jest szczególnie istotny w warunkach gęstej zabudowy miejskiej, w której koszt instalacji linii światłowodowych jest znaczny. Alternatywą dla linii kablowych są systemy łączności bezprzewodowej FSO (ang. Free Space Optics). System FSO jest technologią bezprzewodowej komunikacji optycznej, która do przesyłania danych pomiędzy dwoma punktami wykorzystuje propagację promieniowania optycznego w wolnej przestrzeni. Systemy, które są aktualnie dostępne na świecie, z powodzeniem rozwiązują problemy transmisji danych, zwłaszcza w przypadku małych odległości (ang. last mile communications) [1]. Systemy łączności w otwartej przestrzeni wymagają zastosowania odpowiednich źródeł promieniowania optycznego. Przy ich wyborze, w głównej mierze, należy uwzględnić: zakres długości fal, moc emitowanego promieniowania oraz możliwość współpracy z elektronicznymi układami modulującymi. Zakres długości fal zastosowanego promieniowania uwarunkowany jest przede wszystkim właściwościami transmisyjnymi atmosfery oraz koniecznością zapewnienia bezpieczeństwa zarówno dla użytkowników, jak i osób postronnych. Do głównych zalet tych łączy można zaliczyć: łatwość instalacji, duże przepływności przy stosunkowo małych nakładach inwestycyjnych, bardzo niską elementową stopę błędu, odporność na zakłócenia elektromagnetyczne, brak utrudnień administracyjnych związanych z ich instalacją (nie są wymagane licencje). Ważną właściwością tych łączy jest ich duża odporność na podsłuch, ze względu na wąską wiązkę, brak listków bocznych i łatwą kontrolę inwazji zakłóceń w wiązkę. Łącza FSO są porównywalne z łączami radiowymi w aspekcie medium transmisyjnego, jednakże przewyższają je pod względem szerokości pasma, kosztów eksploatacji, oraz szybkości instalacji. Zapewniają zasięgi do kilku kilometrów. Stąd też, mogą być stosowane w sytuacjach kryzysowych oraz w syst[...]
 
Metoda szybkiej oceny charakterystycznych parametrów rdzenia ferromagnetycznego magnetycznie miękkiego
 
JAN WIŚNIEWSKI  PIOTR MRÓZ  
Rdzeń ferromagnetyczny "magnetycznie miękki", nazywany również magnetowodem o wąskiej pętli histerezy magnetycznej [1-3, 5, 8], którego względna przenikalność magnetyczna jest dużo razy większa od jedności, stanowi obwód magnetyczny, przez który zamyka się zmienny strumień magnetyczny wywołany prądem płynącym w uzwojeniu cewki umieszczonej na tym rdzeniu. W przypadku rdzenia bez szczeliny powietrznej mamy do czynienia z jednorodnym obwodem magnetycznym wykonanym z tego samego materiału. Dla projektanta, często, najważniejszymi parametrami rdzenia ferromagnetycznego są: dopuszczalne namagnesowanie (zwane też "przepływem" [3]), będące iloczynem dopuszczalnego prądu cewki i ilości zwojów (IL,ampl ⋅ n)dop, stanowiące o dopuszczalnym natężeniu pola magnetycznego w rdzeniu oraz stała charakterystyczna AL, proporcjonalna do względnej przenikalności magnetycznej rdzenia, wyrażająca indukcyjność jednego zwoju. Parametry te stanowią na ogół minimalną i wystarczającą podstawę projektowania transformatorów napięcia przemiennego, dławików i elektromagnesów z użyciem rdzeni ferromagnetycznych. Praktykowane szeroko oscyloskopowe zdejmowanie tzw. dynamicznej krzywej (pętli) histerezy rdzenia magnetycznego łączy się ze stosowaniem skomplikowanego elektronicznego układu pomiarowego, wymagającego dodatkowo precyzyjnego skalowania czułości napięciowej obydwu osi (X i Y) odchylania "plamki" użytego oscyloskopu [9]. Stosowane od ponad dwóch dziesięcioleci profesjonalne mikroprocesorowe i kom[...]
 
Mikrofalowe antenowe moduły nadawczo-odbiorcze T/R, stan obecny i kierunki rozwoju
 
Edward Sędek  Zenon Szczepaniak  Mariusz Łuszczyk  
W drugiej połowie ubiegłego wieku powszechnie stosowano radary z antenami reflektorowymi. Wiązka antenowa była kształtowana poprzez geometrię reflektora oświetlanego za pomocą tuby falowodowej, do której doprowadzany był sygnał z centralnego nadajnika lampowego. W nadajniku stosowano lampy magnetronowe, lampy z falą bieżącą (LFB) lub klistrony wieloobwodowe. W latach 70. stosowano również anteny dwureflektorowe, w których jeden z reflektorów pełnił rolę anteny nadawczej kształtującej charakterystykę pokrycia radaru, zaś w antenie odbiorczej stosowano kilka falowodowych tub odbierających odbite od obiektów sygnały i za pośrednictwem układu formowania wiązek kształtowano wiązki odbiorcze. Zastosowanie kilku falowodowych tub (kilku wiązek odbiorczych) pozwalało na określenie wysokości wykrytego celu latającego. Tak powstały pierwsze radary trójwspółrzędne (3D), pozwalające wyznaczyć, oprócz kąta azymutu i odległości, wysokość latającego obiektu. Podstawową wadą rozwiązań anten reflektorowych był wysoki poziom listków bocznych charakterystyki promieniowania anteny (rzędu dwudziestu kilku dB), co powodowało niską odporność radaru na różnego rodzaju zakłócenia, w szczególności celowo wytwarzane przez przeciwnika. Kształt wiązki był stały i zależał od wymiarów geometrycznych i kształtu reflektora [1-4]. W Polsce przykładem wymienionego rozwiązania był radar N-11 opracowany w latach 80. ubiegłego wieku w Przemysłowym Instytucie Telekomunikacji [5]. Nie wchodząc szczegółowo w kolejne etapy rozwoju należy stwierdzić, że dopiero opracowanie radarów z płaskimi pasywnymi ścianami antenowymi pozwoliło znacząco obniżyć poziom listków bocznych. Kolejny etap rozwoju techniki antenowej, to aktywne anteny ścianowe z tzw. rozproszonym nadajnikiem zasilającym poszczególne wiersze antenowe, a następnie aktywne anteny ścianowe, w których poszczególne elementy promieniujące posiadają swoje moduły nadawczo-odbiorcze (T/R), pozwalające regulować zaró[...]
 
Moduł konwersji A/C oraz demodulator iq dla radaru z cyfrowym formowaniem wiązki
 
Daniel Nitecki  
Prawidłowa praca układu konwersji analogowo-cyfrowej jest istotnym czynnikiem prawidłowej pracy stacji radiolokacyjnej. Układ konwersji A/C jest jednym z najbardziej istotnych elementów zespołu obróbki cyfrowej radaru, dlatego też przed jego wykorzystaniem w docelowej aplikacji należy poddać go szczegółowym badaniom. Zasadniczym celem tych badań jest m.in. zweryfikowanie parametrów: SFDR, SINAD, ENOB, THD oraz przesłuchu międzykanałowego podawanych przez producenta [6]. Bezpośrednio za układem konwersji analogowo-cyfrowej znajduje się układ cyfrowego demodulatora IQ. Układ ten umożliwia przesunięcie składowych widma sygnału wejściowego oraz pozwala na opisanie sygnału zespolonego poprzez składową rzeczywistą (I) i składową urojoną (Q). Składa się on z trzech komponentów: mnożnika, filtru dolnoprzepustowego i układu decymacji [5]. Implementacja m.in. cyfrowej demodulacji IQ radaru w układzie FPGA pozwala na stworzenie wielokanałowego systemu pracującego w pełni w sposób równoległy. System złożony z układów FPGA umożliwia projektantowi testowanie pojedynczych jego komponentów niezależnie od pracy pozostały, co ma istotny wpływ na zapewnienie wysokiej niezawodności projektowanego systemu. Parametry modułu konwersji A/C Fizycznie modułem konwersji analogowo-cyfrowej w tej aplikacji jest nakładka FMC108 firmy 4DSP (rys. 1). Jest ona komercyjnym rozwiązaniem zapewniającym znaczną gęstość upakowania przetworników na płycie przy utrzymaniu wysokich parametrów konwersji A/C. Na rysunku 2 przedstawiono schemat blokowy nakładki FMC- 108. Wyrób zbudowany jest na bazie czterech dwukanałowych przetworników A/C ADS62P49 firmy Texas Instruments. Umożliwia pracę zarówno z zewnętrznym (docelowym) jak i wewnętrznym zegarem próbkowania. Tory analogowe przetworników oferowane są w wersji AC lub DC. W obu przypadkach wykorzystano jako gniazdo wejściowe złącze współosiowe SSMC. Nakładka pozwala na elastyczne sterowanie częstotliwością próbkowania[...]
 
Nanoimprint Lithography - a next generation high volume lithography technique for the transition of MEMS technology to nanofabrication
 
Gerald Kreindl  Roland Staudinger  
EV Group (EVG) is a leading supplier of equipment and process solutions for the manufacture of semiconductors, microelectromechanical systems (MEMS), compound semiconductors, power devices and nanotechnology devices. Key products include wafer bonding, thin-wafer processing, lithography/nanoimprint lithography (NIL) and metrology equipment, as well as photoresist coaters, cleaners and inspection systems. Founded in 1980, EV Group services and supports an elaborate network of global customers and partners all over the world. More information about EVG is available at www.EVGroup.com. With the ever increasing demand for higher integration combined with the need to reduce structure sizes at an acceptable cost model, the lithographic techniques of the semiconductor industry are fast approaching their limits and new technologies have to be developed and tested for high volume production. Since the first publication [1] NIL has experienced a rapidly growing interest, starting from the scientific community, moving to the industrial sectors in applications like integrated optics, biochemistry, μ-fluidic, μ-TAS, telecommunication devices, as well as biomedical, nanofluidics, nanooptical applications, data storage and nanoelectronics. In 2003 UV-NIL has been added to the Semiconductor Technology Roadmap (ITRS) as a prospective next generation lithography NGL tool for microelectronics at the 32 nm node and beyond. UV-Nanoimprint Lithography (UV-NIL) offers several technical advantages concerning resolution, overlay and tool design. The tools needed for UV-NIL have decisively lower technical requirements concerning exposure sources, process environmental conditions and the projection optics compared to optical lithography. However semiconductor industry still hesitates to[...]
 
Ocena dokładności określania położenia źródła emisji za pomocą namiarów
 
Jan Matuszewski  
Jednym z ważniejszych zadań systemu rozpoznania elektronicznego, złożonego ze zbioru przestrzennie rozmieszczonych namierników, jest wyznaczenie położenia źródła emisji (ZE) na podstawie namiarów określających kąt przybycia sygnału. W systemach rozpoznania elektronicznego do wyznaczenia położenia ZE najczęściej wykorzystuje się namiary z wielu (minimum dwóch) punktów pomiarowych (namierników), które znajdują się w określonej względem siebie odległości zwanej bazą systemu [1, 2]. W rzeczywistych warunkach pomiarowych wskutek występowania błędów, z których najważniejsze to błędy związane z dokładnością określania namiarów oraz lokalizacją samych namierników, każde położenie ZE będzie wyznaczane z błędem, będącym w ogólnym przypadku funkcją wszystkich błędów występujących w systemie oraz wprowadzonych przez otoczenie systemu [6]. Algorytmy estymacji położenia ZE oparte są na klasycznym modelu obserwacji i na estymatorach największej wiarygodności w przypadku przyjęcia założenia o znanej funkcji gęstości prawdopodobieństwa błędów pomiaru. Określenie położenia źródła emisji na płaszczyźnie Sformułowanie problemu Jeżeli ZE znajduje się na płaszczyźnie, to do określenia jego położenia (pozycji) wystarczy pomiar tylko dwóch namiarów θ1, θ2 z dwóch różnych punktów odbioru, rozmieszczonych w odległości b od siebie. Położenie ZE określone jest przez punkt przecięcia się dwóch półprostych, tzn. linii namiarów, będących liniami położenia - rys. 1. Ponieważ pomiar każdego namiaru obarczony jest błędem, więc w wyniku obliczenia pozycji tego samego ZE na podstawie wielu różnych namiarów otrzymamy zbiór punktów, który utworzy na płaszczyźnie pewien obszar zwany obszarem nieokreśloności (nieoznaczoności), w którym z określonym prawdopodobieństwem znajdować się będzie wykryte ZE [3]. Ocenę dokładności wyznaczenia położenia ZE dokonuje się tutaj na postawie analizy statystycznej wyników pomiarów. Estymację położenia ZE w warunkach[...]
 
Pamięć akwizycji danych oscyloskopu. Spójrz dalej, niż na tabliczkę znamionową
 
Richard Markley  
AM Technologies Polska Sp. z o.o. - wyłączny, autoryzowany dystrybutor w Polsce w zakresie sprzedaży oraz obsługi posprzedażowej urządzeń i systemów pomiarowych i kontrolnych Agilent Technologies.Pamięć akwizycji danych to ważny czynnik charakteryzujący każdy oscyloskop cyfrowy, przy czym większa pojemność pamięci nie oznacza lepszej klasy oscyloskopu. Nie jest to oczywiste, warto więc przyjrzeć się bliżej budowie oscyloskopów o różnej architekturze pamięci, co pozwoli lepiej zrozumieć, dlaczego jeden rodzaj pamięci jest bardziej efektywny i użyteczny od innego. Na rynku dostępne są oscyloskopy budowane w oparciu o dwie architektury. W tradycyjnym typie architektury pamięci za przetwarzanie i wyświetlanie na ekranie rejestrowanych przez oscyloskop danych odpowiada w głównej mierze system mikroprocesorowy. Mimo, że niektórzy producenci tworzą nowe, fantazyjne wręcz nazwy dla tego typu architektury, czy też stosują specjalne tryby pracy pozwalające częściowo zniwelować jej wady, główną niedogodnością wciąż pozostaje fakt obecności systemu mikroprocesorowego w systemie wyświetlania obrazu. W oscyloskopach bazujących na drugim typie architektury pamięci system mikroprocesorowy usunięto z toru wyświetlania obrazu i zastąpiono go wyspecjalizowanym ukła[...]
 
Polska premiera NX_8.5
 
Tendencje rozwoju platform inżynierskich w polskim przemyśle.W największych sektorach gospodarki są stosowane różne aplikacje komputerowego wspomagania projektowania (CAD), Oserwuje się szybki rozwój ilościowego platform inżynierskich, jednak jest to uwarunkowane wieloma czynnikami. Branza motoryzacyjna zatrudnia w Polsce ok. 150 tys. pracowników, ma wartość 27 mld Euro. W Polsce w roku 2012 wyprodukowano 0,8 mln pojazdów (mapa poniżej).- udział w rynku sam[...]
 
Polskie Towarzystwo Techniki Sensorowej
 
Ryszard Jachowicz  
Szanowni Członkowie PTTS, Szanowni Czytelnicy miesięcznika ELEKTRONIKA, Korzystając z uprzejmości czasopisma ELEKTRONIKA "konstrukcje technologie zastosowania" chciałbym Państwa tą drogą poinformować, że na walnym posiedzeniu Polskiego Towarzystwa Techniki Sensorowej (PTTS) 26 czerwca 2012 r., na XII Konferencji Czujników Optoelektronicznych i Elektronicznych - COE'2012 w K[...]
 
Porównanie dokładności estymacji położenia obiektów przez nieliniowe filtry Kalmana
 
STANISŁAW KONATOWSKI  
Pojęcie filtracji i estymacji stanu. Filtracja odnosi się do estymacji modelu stanu k x [7-9], który jest obserwowany pośrednio przez pomiary kPomiary są zakłócane przez szum pomiarowy o znanym rozkładzie ( ) k k p y | x . Ewolucja stanów między poszczególnymi pomiarami modelowana jest przez proces Markowa p ( ) . 1 | k k - x x Celem estymowania stanów procesu jest jak najdokładniejsze określanie stanu k x na podstawie pomiarów k y . Zgodnie z założeniami filtracji optymalnej, podstawowym zadaniem filtru optymalnego jest dostarczanie przybliżonej postaci rozkładu stanów. Im bardziej dokładne jest to przybliżenie, tym lepszy jest algorytm filtracji [6,13]. Korzystając z podstawowych praw statystyki można wnioskować o rozkładzie a posteriori stanu k x w każdym kroku uwarunkowanym wszystkimi pomiarami: . (2) Równania rekursywne do sekwencyjnego obliczania rozkładu a posteriori zwane są równaniami filtracji bayerowskiej [7,11]. Obliczenia zaczynają się od rozkładu początkowego: , (3) następnie rozkłady posteriori mogą być sukcesywnie wyznaczane z równań: , (4) (5) gdzie stała normalizacyjna jest definiowana następująco Prawdopodobieństwo brzegowe, z którego otrzymuje się przewidywany rozkład pomiarów k y przy danych wcześniejszych pomiarach jest określone jako: . (6) Zauważyć należy, że prawdopodobieństwo brzegowe wyraża się tak samo jak stała normalizacyjna Zk. Algorytm filtracji Kalmana Filtr Kalmana odnosi się do liniowego modelu dynamiki opisywanego w czasie dyskretnym. Optymalną ocenę stanu według kryterium minimalnej wartości błędu średniokwadratowego można przeprowadzać pod warunkiem, że znany jest model dynamiki i model obserwacji [7-12]. Wektor stanu zdefiniowany jest równaniem różnicowym: , (7) zaś wektor pomiarowy równaniem algebraicznym: , (8) gdzie zakłócenia posiadają następujące właściwości statystyczne:Powyższe oznaczenia zdefiniowane są następująco: - ( ) k k x = x t jest stanem systemu (wektorem o wymi[...]
 
Projekt systemu automatycznego rozpoznawania mówcy w oparciu o techniki homomorficzne
 
Ewelina Majda  Andrzej P. Dobrowolski  
Mowa jest naturalnym i jednym z najbardziej efektywnych sposobów komunikowania się ludzi z otoczeniem. Ogromna ilość informacji przekazywana przy pomocy tego naturalnego sygnału spowodowała, że już od wielu lat na świecie prowadzone są badania mające na celu odpowiednie przetworzenie sygnału mowy, w celu wydobycia informacji wymaganych dla konkretnych zastosowań. W niniejszym artykule przedstawiono proces projektowania systemu automatycznego rozpoznawania mówcy. Automatyczne rozpoznawanie mówcy zwane także automatycznym rozpoznawaniem głosów, jest procesem realizującym szereg reguł decyzyjnych na mierzalnych cechach sygnału mowy, mających na celu określenie czy dana wypowiedź należy do określonego mówcy zależnie lub niezależnie od treści wypowiedzi. System automatycznego rozpoznawania mówcy identyfikuje/ weryfikuje osobę, dzięki porównaniu tzw. wektora cech z bazą modeli głosów. Na rys. 1 przedstawiono przykładowy schemat takiego systemu. Analiza sygnału mowy, w wyniku której otrzymuje się wektor cech, niosący informację o indywidualnych właściwościach głosu mówcy, odbywa się w dwóch trybach: uczenia bądź identyfikacji (klasyfikacji) [2].W fazie uczenia nowi mówcy ze znanymi tożsamościami zapisywani są w bazie danych systemu. Faza identyfikacji, polega na porównaniu wyekstrahowanych unikatowych cech głosu nieznanego mówcy z próbkami zawartymi w bazie systemu (klasyfikacja). Zarówno w fazie uczenia jak i identyfikacji używane są te same algorytmy parametryzacji sygnału mowy wyznaczające unikatowy "odcisk głosu" (ang. Voice Print). Metodyka badań Pierwszym zadaniem autorów było zebranie materiału badawczego w postaci próbek sygnału mowy. Rejestracji czasowych przebiegów akustycznego sygnału mowy dokonano w Instytucie Systemów Elektronicznych Wydziału Elektroniki WAT z zastosowaniem mikrofonu dynamicznego Monacor DM-500, karty dźwiękowej komputera oraz oprogramowania Matlab. Podczas badania, odległość mikrofonu od ust osoby mó[...]
 
Radar pasywny działający w oparciu o sygnał naziemnej telewizji cyfrowej
 
Marcin Kamil Bączyk  Krzysztof Kulpa  Mateusz Malanowski  Łukasz Maślikowski  Piotr Samczyński  Adam Gorzelańczyk  
Radar pasywny jest systemem radiolokacyjnym, w którym wykorzystuje się niewspółpracujące nadajniki jako źródła promieniowania oświetlającego obserwowaną scenę. Fakt ten powoduje, iż systemy takie nie wymagają własnych nadajników, przez co są one relatywnie tanie, znacznie mniejsze, mniej podatne na uszkodzenia i trudne do wykrycia. Oprócz radia FM [1-4] najbardziej popularnym źródłem promieniowania wykorzystywanym w radiolokacji pasywnej jest naziemna telewizja cyfrowa DVB-T (ang. Digital Video Broadcasting - Terrestrial). Szersze pasmo sygnału zapewnia lepszą rozróżnialność odległościową, niż w przypadku radia FM. Ponadto, ze względu na fakt wykorzystania modulacji cyfrowej, możliwe jest odtworzenie sygnału referencyjnego z zaszumionego sygnału odebranego. Wykrywanie obiektów w radarach pasywnych opiera się na wyznaczaniu funkcji niejednoznaczności wzajemnej sygnałów referencyjnego i pomiarowego [1-4]. Sygnał pomiarowy rejestrowany jest przez antenę zwróconą w kierunku badanej przestrzeni natomiast sygnał referencyjny powinien być idealną kopią sygnału wyemitowanego. Jedną z możliwości pozyskania sygnału referencyjnego jest jego rejestracja za pomocą anteny kierunkowej zwróconej bezpośrednio w stronę nadajnika. Pomimo takiej konfiguracji sygnał referencyjny jest bardzo często zniekształcony i zaszumiony. Inną możliwością jest odtworzenie sygnału, korzystając z faktu, iż transmisja jest cyfrowa i jej błędy oraz szum mogą zostać usunięte. W niniejszym referacie przedstawiony zostanie sposób, w jaki przetwarza się sygnały w radarze pasywnym. Omówiona zostanie funkcja niejednoznaczności wzajemnej dla sygnału naziemnej telewizji cyfrowej oraz zaprezentowane zostaną wyniki przetwarzania i detekcje obiektów ruchomych. Koncepcja radaru pasywnego W radiolokacji klasycznej, tzn. przy wykorzystaniu radaru aktywnego, część nadawcza i odbiorcza znajdują się w tym samym miejscu. Najczęściej obie wykorzystują tę samą antenę, pracującą [...]
 
Szyk planarny anten mikropaskowych z przeznaczeniem do radaru dopplerowskiego
 
Łukasz Sorokosz  Michał Dutkiewicz  Włodzimierz Zieniutycz  
Planarne anteny mikropaskowe, nazywane również łatowymi, są znane wśród projektantów i inżynierów mikrofalowych i antenowych od wielu lat. Pomimo faktu, że są szeroko stosowane w technice radiowej i radarowej, wciąż prowadzi się badania nad poprawą ich właściwości oraz nad znalezieniem dla nich nowych zastosowań. W tej pracy przedstawiono konstrukcję oraz wyniki pomiarów prostego szyku anten mikropaskowych na pasmo 10 GHz z przeznaczeniem do radaru dopplerowskiego. Opisany szyk składa się z 4 anten mikropaskowych zasilanych przez sprzężenie elektromagnetyczne poprzez szczelinę we wspólnym ekranie anten i układu zasilania. Radar, do typu którego zaprojektowano opisywany szyk anten bazuje na efekcie Dopplera, który polega na zmianie częstotliwości fal elektromagnetycznych odbitych od obiektu poruszającego się względem obserwatora. Umożliwia on określenie położenia obiektu oraz jednoczesną obserwację zmiany kierunku i prędkości jego przemieszczania się. Możliwości te wykorzystuje się m.in. w lotnictwie [4], meteorologii [9] i urządzeniach do pomiaru prędkości poruszających się obiektów [7]. Anteny stosowane w radarach dopplerowskich powinny odznaczać się wąską wiązką główną (selektywność kątowa) przy jednoczesnym niskim poziomie listków bocznych (odporność na błędy i zakłócenia). Z tego względu zaproponowano szyk 4 anten w konfiguracji 2×2 ze specjalnie zaprojektowanym układem zasilania, zapewniającym równe poziomy amplitud i faz sygnałów pobudzających elementy szyku. W kolejnym rozdziale pracy opisano proces projektowania pojedynczej anteny mikropaskowej na pasmo 10 GHz, w którym główny nacisk położono na małe wymiary anteny oraz możliwość uzyskania pasma dla WFS < 2 szerszego niż 2%. Projekt szyku antenowego, czyli plan sieci zasilającej oraz rozmieszczenie anten względem siebie oraz wyniki eksperymentalnej weryfikacji parametrów pracy szyku, takich jak straty odbiciowe i charakterystyki promieniowania w dwóch płaszczyznach or[...]
 
Wybrane problemy lokalizacji źródeł emisji za pomocą rozproszonego systemu odbiorczego - wstępne wyniki badań
 
Grzegorz Czopik  Jacek Fornalik  Tomasz Kraszewski  
Zbieranie pełnej informacji o źródle fal radiowych jest przedsięwzięciem wymagającym odpowiedniej aparatury kontrolno-pomiarowej oraz szeroko rozumianej wiedzy. Realizowane jest w kilku następujących po sobie etapach, obejmujących: - wykrywanie emisji, - odbiór sygnałów pochodzących od wyselekcjonowanego źródła emisji, - pomiar charakterystycznych parametrów technicznych źródła emisji, - identyfikację (jeśli to możliwe), oraz - określenie z pewnym prawdopodobieństwem miejsca zainstalowania nadajnika. Proces szczególnie się komplikuje w przypadku zupełnego braku informacji a priori co do charakteru emisji. Uwarunkowania postawionego zadania nie zawsze wymagają realizacji wszystkich wskazanych powyżej czynności. Niejednokrotnie interesujące dla końcowego użytkownika systemu będzie jedynie stwierdzenie faktu zaistnienia emisji z zadanego pasma realizowane poprzez klasyczny monitoring w częstotliwości. Szczególnym przypadkiem takiego działania jest sytuacja, w której system ma zareagować na pojawienie się emisji nowej, jakiej dotychczas, podczas rejestracji tła radiowego za określony przedział czasu, nie stwierdzono. Stwierdzenie faktu zaistnienia emisji radiowej najczęściej skutkuje postawieniem zadania jej odbioru. Problem może być o tyle skomplikowany w początkowej fazie tego procesu, że nie znając charakteru sygnału duży nacisk jest kładziony na wiedzę ekspercką operatora, którego zadaniem jest właściwy dobór ustawień odbiornika (np. szerokości pasma) skutkujący odbiorem niezniekształconego sygnału. Aby zaistniała możliwość zaklasyfikowania sygnału do określonej grupy znanych emisji albo dopisania nowego wzorca w bazie danych, musi zostać określona dokładna sygnatura sygnału poprzez wyznaczenie skończonego ale dystynktywnego zbioru parametrów go opisujących. Do zbioru dystynktywnych parametrów zaliczyć można wartość częstotliwości nośnej, rodzaj sygnału (ciągły, impulsowy), sposób modulacji, a w przypadku sygnałów impul[...]
 
Wykorzystanie algorytmów klasyfikacji i fuzji informacji w procesie rozpoznawania obiektów morskich na podstawie obrazów FLIR
 
Tadeusz PIETKIEWICZ  Andrzej WITCZAK  
Pasywne sensory podczerwieni FLIR (Forward Looking Infra- Red) wykorzystywane do rozpoznawania obiektów morskich rozmieszczane są na powietrznych platformach rozpoznania i okrętach. Używane są przede wszystkim do rozpoznania krótkiego i średniego zasięgu i identyfikacji obiektów nawodnych (statków i okrętów). Przeciętny zasięg tego sensora wynosi 12 do 20 mil morskich dla okrętów, 12 do 14 mil morskich łodzi podwodnych oraz 2 do 4 mil morskich dla peryskopu [18] w zależności od warunków obserwacji, szczególnie stanu morza. Sensor FLIR dostarcza cyfrowe obrazy monochromatyczne, w których każdy piksel scharakteryzowany jest jedną liczbą - luminancją piksela. Wykorzystanie sensora FLIR do rozpoznawania (identyfikacji) obiektów morskich może być praktycznie realizowane wówczas, gdy klasyfikator (obiekt wykonujący identyfikację) dysponuje bazą obrazów obiektów morskich. Klasyfikator może wówczas podjąć decyzję, który obiekt z bazy danych jest najbliższy do obserwowanego obiektu ze względu na wartości określonych atrybutów obiektów i wartość kryterium oceny odległości. Należy podkreślić, że w literaturze przedmiotu można znaleźć definicje kilku klasyfikatorów, które mogą być użyte do rozpoznawania obiektów za pośrednictwem sensorów FLIR. Interesującym problemem jest również opracowanie algorytmów fuzji informacji pochodzących z kilku klasyfikatorów. Najbardziej znaną w literaturze bazą danych obrazów FLIR jest baza opracowana przez Parka i Slansky&#8217;ego [16], zawierająca 2 545 obrazów. Fuzja klasyfikatorów okazuje się dobrym sposobem poprawy jakości klasyfikacji. Łącząc indywidualne opinie możemy uzyskać uzgodnioną decyzję, której jakość dla pewnych schematów łączenia (kombinacji) znacznie przewyższa jakość decyzji pojedynczego klasyfikatora. W literaturze możemy znaleźć wiele schematów [16]. Kittler [12] rozważa dwa rodzaje łączenia zespołów klasyfikatorów. W pierwszym - wszystkie klasyfikatory wykorzystują identyczną repreze[...]
 
Zaawansowane Systemy Elektroniczne i Inżynieria Internetu WILGA luty 2013
 
Ryszard S. Romaniuk  
Cykl Konferencji dla młodych uczonych WILGA. Konferencja WILGA zbudowała w ciągu ostatnich kilkunastu lat dobrą tradycję naukowych spotkań młodych uczonych. Cykl konferencji WILGA [wilga.ise.pw.edu.pl] Fotonika i Inżynieria Internetu, Zaawansowane Systemy Elektroniczne, pod patronatem IEEE, SPIE, KEiT PAN oraz WEiTI PW został zapoczątkowany w roku 1998 przez Zespół Naukowy PERG/ELHEP ISE PW. Konferencje odbywają się dwukrotnie w roku, a uczestnikami są młodzi uczeni z kraju i zagranicy.Artykuł omawia wybrane nurty tematyczne i prace przedstawione na 31 konferencji WILGA [http://wilga.ise.pw.edu.pl], która odbyła się w dniach 8-10 lutego 2013 na terenie WEiTI PW. W konferencji udział wzięło łącznie ponad 80 osób. Szczególnym zainteresowaniem na Sympozjum WILGA cieszą się zwykle referaty doktorantów pracujących na co dzień w wielkich laboratoriach badawczych, takich jak: CERN w Genewie, DESY w Hamburgu, PSI w Willingen, FermiLab pod Chicago, JeffersonLab w Newport News, JET w Culham, RAL pod Oxfordem i innych, jak ośrodki synchrotronowe w Europie, np. MaxLab w Lund. Omówiono szerzej tematykę inżynierii Internetu, osiągnięcia akceleratora LHC, elektroniki i informatyki biomedycznej oraz wybrane aspekty aplikacji zaawansowanych układów i systemów elektronicznych. Następna 32 konferencja WILGA odbędzie się w dniach 27 maja - 02 czerwca 2013 r. w Ośrodku Pracy Twórczej PW Wilga pod Warszawą. Zgłoszenia prac: photonics@ise.pw.edu.pl.Prace konferencji publikowane są w czasopismach Elektronika, IJET-PAN oraz w serii Proc.SPIE. Do tej pory, z materiałów konferencji WILGA opublikowano kilka dedykowanych wydań czasopism naukowo-technicznych oraz kilkanaście tomów Proc. SPIE - notowanych w bazach danych Elsevier-Scopus, Thomson-Reuters Web of Knowledge a także innych, jak Baz- Tech i Scholar Google. Materiały konferencji WILGA stanowią doskonały przegląd stanu młodej nauki w dziedzinie elektroniki i fotoniki w kraju, prezentowanej także [...]
 
Zastosowanie analitycznych i numerycznych metod wspomagania projektowania do lamp z falą bieżącą
 
Waldemar Tadeusz Wiejak  
W ostatnich dwóch dziesięcioleciach technologie półprzewodnikowe odnotowały znaczące sukcesy w obszarze mikrofalowych wzmacniaczy mocy. Jednak pomimo tego próżniowe urządzenia wzmacniające, w szczególności spiralne lampy z falą bieżącą (LFB), pozostają wciąż niedościgłym źródłem sygnału mikrofalowego fali ciągłej dużej mocy (400&#8230;500 W) [2, 6]. Uzyskiwana moc mikrofalowa z jednostki objętości wzmacniacza na LFB, zwłaszcza w wyższych zakresach częstotliwości (pasma S, C, X, Ku), przewyższa bowiem wielokrotnie wartości z jakimi mamy do czynienia w wypadku wzmacniaczy półprzewodnikowych. Tym samym nic nie traci na znaczeniu potrzeba dalszego rozwoju metod projektowania i technologii wytwarzania LFB, zwłaszcza zaś potrzeba ich miniaturyzacji [8]. Obniżenie kosztów projektowania poprzez istotne skrócenie czasu opracowania konstrukcji i ilości wykonanych modeli badawczych oraz jej optymalizacja metodami numerycznymi prowadzi do obniżenia kosztów wytwarzania przyrządów próżniowych. Tym samym wzmacniacze na LFB stają się dodatkowo konkurencyjne pod względem ceny w stosunku do wzmacniaczy półprzewodnikowych. Analizie numerycznej poddano cztery zasadnicze podzespoły funkcjonalne typowe dla każdej LFB, chociaż mogące różnić się zasadniczo co do formy i wymiarów dla różnych ich typów. W tym wypadku oparto się na konstrukcji projektowanej LFB fali ciągłej LO-500 o mocy wyjściowej 400 W, pracującej w paśmie częstotliwości 4,4&#8230;5,0 GHz, przeznaczonej do zastosowań telekomunikacyjnych. Cechami charakterystycznymi tej konstrukcji są: spiralna, szerokopasmowa linia opóźniająca wsparta na trzech prętach wykonanych z ceramiki berylowej, sterowana siatką sferyczna wyrzutnia elektronów, dwustopniowy kolektor elektronów zapewniający 32% sprawność całkowitą LFB, periodyczny układ ogniskujący na magnesach stałych z nabiegunnikami stanowiącymi fragment układu odprowadzania ciepła strat z LO oraz falowodowe wyjście sygnału b.w.cz. (rys. 1) [...]
 
Zastosowanie hybrydowego operatora mutacji w obliczeniach ewolucyjnych
 
Zbigniew Handzel  Mirosław Gajer  
Obecnie algorytmy ewolucyjne stanowią już dobrze ugruntowaną technikę obliczeniową, która wykorzystywana jest powszechnie na potrzeby rozwiązywania różnego typu zagadnień optymalizacyjnych [1]. Dużą zaletą algorytmów ewolucyjnych jest fakt, że są one metodą obliczeniową wymagającą minimum wiedzy o rozwiązywanym zagadnieniu [2]. Bowiem w celu zastosowania algorytmu ewolucyjnego należy tylko zdefiniować sposób kodowania rozwiązań na materiale genetycznym osobników oraz określić postać funkcji dopasowania, która pozwala rozstrzygnąć, które z dwóch różnych rozwiązań reprezentowanych przez odmienne osobniki jest lepsze [3, 4]. Niestety, w praktyce okazuje się, że zdefiniowanie odpowiedniego sposobu kodowania rozwiązań oraz określenie postaci funkcji dopasowania nie jest bynajmniej zadaniem łatwym, o czym świadczą między innymi prace [5-14]. Jeżeli chodzi o różne sposoby kodowania rozwiązań, to najstarszym ze znanych jest kodowanie binarne, w przypadku którego każdy z genów ewoluującego osobnika może przyjąć tylko jedną z dwóch dopuszczalnych wartości, czyli zero lub jeden [1-4]. Jednak na pewnym etapie badań nad algorytmami ewolucyjnymi zdano sobie sprawę, że w wielu przypadkach jest znacznie korzystniej, gdy na potrzeby kodowania wykorzystane zostaną liczby całkowite. W takim przypadku każdy z genów osobnika jest liczbą całkowitą zawartą w pewnym przedziale od N1 do N2. Z kolei w przypadku niektórych zagadnień optymalizacyjnych można zastosować kodowanie oparte bezpośrednio na wykorzystaniu liczb rzeczywistych, które oczywiście w komputerze reprezentowane są przez najbliższe im co do wartości liczby wymierne, co wiąże się ze skończoną dokładnością reprezentacji liczb w maszynach cyfrowych. W takim przypadku każdy z genów osobnika jest w istocie liczbą wymierną zawartą w pewnym przedziale od W1 do W2. Ponadto okazuje się, że istnieją także złożone zagadnienia optymalizacyjne, w przypadku których korzystnie byłoby zastosować hyb[...]
 
Zastosowanie sensorowej funkcji układu sterowania napędem zamka elektromechanicznego
 
Paweł POMASKI  Mirosław DEREŃ  Marcin PIOTROWSKI  Krzysztof KOWALCZUK  
Takie czynniki, jak potrzeba zapewnienia bezpiecznego dostępu do różnego rodzaju pomieszczeń, np. magazynowych czy pokoi hotelowych, a także skrytek i przenośnych pojemników, których są przechowywane cenne rzeczy i chronione tajemnicą dokumenty, a także ogromny postęp technologii elektronicznych i informatycznych był motorem rozwoju technologii bezpieczeństwa dostępu z użyciem kart elektronicznych, której celem jest zapewnienie polityki bezpieczeństwa informacji (ang. Information System Security Policy - ISSP) [1-3]. W tym obszarze techniki znajdują się zamki z elektroniczną kontrolą dostępu, będące przedmiotem artykułu. Na rynku są dostępne różne rozwiązania zamków elektronicznych, których konstrukcja zależy od przystosowania zamka do warunków użytkowania i stopnia bezpieczeństwa dostępu. W artykule przedstawiono nowatorskie rozwiązanie zamka, którego ważną cechą jest jego autonomiczność, charakteryzująca się własnym źródłem zasilania i mikroprocesorowym układem sterującym napędem zamka. Ponieważ zamki te będą instalowane w osobistych pojemnikach na dokumenty chronione tajemnicą, konieczny jest duży stopień miniaturyzacji elektronicznych układów sterujących oraz elektromechanicznych układów wykonawczych. Powyższe założenia wpłynęły na potrzebę dokonania optymalizacji układu w celu zapewnienia minimalnego zużycia energii, co wpływa na zwiększenie okresu użytkowania zamka bez potrzeby doładowania akumulatora. Bezpieczeństwo dostępu użytkownika pojemnika do dokumentów uzyskano dzięki zaprojektowaniu detektora w postaci karty elektronicznej z unikatowym kodem. Uprawnienia dla użytkownika do danego kodu karty będą wpisywane do pamięci zamka. Ze względu na przewidywane duże zapotrzebowanie na pojemniki z zamkiem tego typu dla indywidualnych użytkowników, wykonawcy dążyli do uzyskania możliwie niskiej ceny zamka. W konstrukcyjnych rozwiązaniach zamków zawierających elektromechaniczne układy blokujące rygle lub powodujące zmianę i[...]
 
Zastosowanie techniki radarowej do diagnostyki stanu pni drzew
 
Mateusz Pasternak  Paweł Kaczmarek  Jerzy Pietrasiński  Witold Czarnecki  
Ustawa o ochronie przyrody z dnia 16 kwietnia 2004 r. (Dz. U. z 2009 r. nr 151 poz. 1220 z późn. zm.), w sposób dość restrykcyjny podchodzi do problemu ochrony drzewostanu, szczególnie w zakresie usuwania drzew. Ustawa ta w art. 86 w sposób szczególny traktuje jednak drzewa, które obumarły lub zagrażają bezpieczeństwu ludzi i mienia. O ile fakt całkowitego obumarcia drzewa jest stosunkowo łatwy do stwierdzenia, o tyle trudno jest określić stopień zagrożenia związanego z jego degradacją postępującą od wewnątrz. Każde dostatecznie duże drzewo stwarza pewne niebezpieczeństwo związane z możliwością złamania się jego konarów lub wywrócenia. Do najczęściej występujących przyczyn takiego typu zdarzeń można zaliczyć: - działanie bardzo silnego wiatru, - podmycie korzeni przez wodę opadową bądź z wezbranego cieku lub zbiornika, - uderzenie pioruna, - okiść (przeciążenie spowodowane nadmiarem lodu bądź mokrego śniegu), - próchnienie pnia lub korzeni drzewa spowodowane zwykle inwazją grzybów. Ostatnia z wymienionych przyczyn nie należy wcale do rzadkości bywając powodem nagłego i niespodziewanego wywracania się drzew nawet przy bezwietrznej pogodzie. Próchnica jest też przyczyną obniżania się ich naturalnej odporności na podmuchy wiatru. Zjawisko to, szczególnie ze względu na swój ukryty charakter jest więc potencjalnie groźne. O jego poważnych skutkach można się przekonać z dość licznych doniesień prasowych. Do podjęcia niniejszej pracy, obok przytoczonych tu faktów, znacząco także przyczyniły się wyniki badań wykonanych na zlecenie Dyrektora Biura Stołecznego Konserwatora Zabytków przy Skwerze I Dywizji Pancernej. Badania te miały na celu określenie stanu systemów korzeniowych dwóch drzew - okazałych przedstawicieli gatunku topoli białej (Populus alba L.) z bardzo rozbudowanymi koronami i znacznymi wysokościami. Drzewa te rosły przy bardzo popularnym trakcie pieszym i zachodziła obawa, że mogą one zagrażać przechodniom. Do przep[...]
 

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»