Wyniki 1-9 spośród 9 dla zapytania: authorDesc:"Grzegorz KASPROWICZ"

MTCA.4 - modułowy system kontrolno-pomiarowy z sub-nanosekundową synchronizacją czasu oraz wsparciem dla technologii RF DOI:10.15199/13.2016.2.2


  Platforma MicroTCA jest obecnie najszybciej rozwijającą się technologią modułowych systemów kontrolno -pomiarowych. Dostępne są wersje laboratoryjne, wojskowe i dla lotnictwa. Najnowsza wersja (MTCA.4) zapewnia wsparcie dla aplikacji wysokich częstotliwości, takie jak akceleratory cząstek, urządzenia radiokomunikacyjne i radarowe. Grupa badawcza PERG z Instytutu Systemów Elektronicznych wraz z partnerami z Europy i Polski bierze aktywny udział w tych pracach, m.in. w implementacji sub-nanosekundowego systemu synchronizacji czasu, dystrybucji zdarzeń i wysokich częstotliwości z użyciem technologii światłowodowej. Pozwala to znacznie zwiększyć możliwości platformy MTCA w aplikacjach rozproszonych systemów pomiarowych (np. technologie radarów pasywnych i aktywnych) oraz zapewnić w pełni deterministyczną pracę rozproszonych systemów sterowania (ang. hard real time). Słowa kluczowe: MTCA, FPGA, SDR, FMC, PCIe, częstotliwości radiowe, synchronizacja czasu, White Rabbit.Celem artykułu jest omówienie technologii systemu kontrolno-- pomiarowego MicroTCA (MTCA) [1] zintegrowanego z systemem czasu rzeczywistego oraz wspierającego synchronizację czasu na poziomie poniżej jednej nanosekundy. Systemy takie wykorzystywane są zarówno przez podmioty naukowo-badawcze (do obsługi eksperymentów z dziedziny fizyki wysokich energii, technologii akceleratorowych,medycyny), jak również komercyjnie - np. w symulatorach systemów sterowania pojazdów, Automatycznych Systemach Testujących (ATE) na liniach produkcyjnych, radiokomunikacji (np. radiostacje, radary pasywne), systemach weryfikujących bloki funkcjonalne satelitów, szybkie systemy sterowania robotami, systemy sterowania akceleratorami medycznymi i przemysłowymi. Obsługę zdarzeń w czasie Rys. 1. Wersje standardu MTCA. Fig. 1. MTCA standard versions rzeczywistym zapewnia dedykowany system operacyjny wraz z narzędziami do budowania aplikacji użytkownika. Do synchronizacji pracy systemu użyto now[...]

Zdalnie sterowana kamera do zastosowań astronomicznych

Czytaj za darmo! »

W roku 2003 uruchomiono w kraju program budowy systemu szerokokątnej obserwacji całego obszaru nieba, do znacznej wielkości gwiazdowej, rzędu 13,5, osiągalnej konwencjonalnymi, niskonakładowymi (tzn. bez dużych teleskopów) technikami obserwacyjnymi, w celu rejestracji rozbłysków optycznych towarzyszących masywnym impulsom gamma. Opisano nową generację wysokiej jakości, zdalnie sterowanych k[...]

Uniwersalna Platforma Pomiarowa dla rozproszonego wirtualnego systemu pomiarowego


  Sposób budowy i obsługi instrumentów pomiarowych przechodzi w ostatnich latach ewolucję. Coraz bardziej popularne stają się Wirtualne Instrumenty Pomiarowe (WIP), gdzie specyficzne cechy danego systemu pomiarowego są implementowane programowo, zaś różnice w budowie sprzętowej częściowo lub całkowicie się zacierają. W konsekwencji instrumenty pomiarowe są implementowane na uniwersalnych platformach sprzętowych ogólnego przeznaczenia (np. zawierających szybkie przetworniki A/D lub/i D/A), zaś cała logika systemu pomiarowego jest zaimplementowana programowo. Tego typu systemy są nazywane Syntetycznymi Instrumentami Pomiarowymi (SIP) [1]. Naturalnym kierunkiem rozwoju WIP jest odejście od sterowania przy pomocy Graficznego Interfejsu Użytkownika (GIU) implementowanego jako dedykowana aplikacja na rzecz sterowania z poziomu przeglądarki WWW. W praktyce to rozwiązanie pozwala na obsługę urządzenia na dowolnym współczesnym systemie operacyjnym bez konieczności instalowania dedykowanego oprogramowania. Zdalne wykonywanie pomiarów, m.in. przy pomocy przeglądarki WWW, umożliwiają Wirtualne Laboratoria Pomiarowe (WLP). Chociaż WLP są koncepcją znaną od ponad 10 lat [2], nie spowodowały wyraźnego postępu w budowie i sposobie wykorzystania systemów pomiarowych. Architektura WLP opiera się na koncepcji przedstawionej na rys. 1 - pośrednikiem między Naturalnym Instrumentem Pomiarowym (NIP) [1] a Klientem jest Server WWW działający najczęściej na standardowym komputerze klasy PC [3]. Dopiero rozwój systemów wbudowanych spowodował postęp w budowie i sposobie obsługi systemów pomiarowych. Wiąże się on z produkcją coraz bardziej wydajnych mikroprocesorów, wyposażonych w szeroką gamę interfejsów. Znajdują one zastosowanie, m.in. w przemyśle telefonów komórkowych czy telewizorów. Otwierają nowe możliwości dla rozwoju małych, szybkich, wirtualnych, zdalnie sterowanych Instrumentów Pomiarowych. Drogie NIP znanych producentów [4] wyposażane są [...]

Cyfrowy tor sygnału wizyjnego dla czujnika CCD w eksperymencie "π of the Sky"


  Nowatorska metoda badania krótkotrwałych obiektów optycznych Eksperyment "π of the Sky" został zainicjowany przez Instytut Problemów Jądrowych im. A. Sołtana w celu wykrywania zjawisk optycznych towarzyszących błyskom gamma (GRB). Ze względu na ich krótkotrwały charakter i równomierne rozmieszczenie na sferze niebieskiej, przyjęto w nim metodę obserwacyjną polegającą na nieustannym monitorowaniu widocznego nieba. Czas trwania interesujących zjawisk mieści się w zakresie od pojedynczych milisekund do kilkudziesięciu minut. Wymusza to osiągnięcie rozdzielczości czasowej stosowanej aparatury rzędu sekund [1]. Kamery eksperymentu "π of the Sky" Realizacja tego zadania nie byłaby możliwa bez współczesnej technologii, która pozwala po pierwsze rejestrować bardzo odległe i słabe źródła światła, po drugie zautomatyzować proces analizy ogromnej liczby gromadzonych informacji. Na potrzeby eksperymentu opracowano kamerę z czujnikiem CCD oraz obiektywem o ogniskowej 85 mm i jasności 1.2. Docelowy system pomiarowy będzie zbudowany z 32 lub 24 podobnych kamer owocując pokryciem obszaru nieba wewnątrz kąta bryłowego π steradianów oraz pokryciem pojedynczego piksela obrazu wynoszącym 0,6 minuty kątowej. 128 Elektronika 11/2011 Warstwę sprzętową kamery podzielono na część analogową i cyfrową, którym fizycznie odpowiadają osobne płyty PCB. Osiągnięto tym samym separację czułego toru analogowego od zakłóceń pochodzących z modułów cyfrowych. W cyfrowej części kamer zrealizowano system kontroli oraz akwizycji danych. Bazuje on na procesorze AT91SAM9269 z rodziny ARM9, na którym uruchomiono system operacyjny Linux. Jego dużą zaletą jest sprzętowa obsługa interfejsu obrazowego ISI (ang. Image Sensor Interface) zgodnego ze standardami cyfrowego przesyłania obrazu ITU‑R BT. 601/656. W tej części umieszczony jest także układ FPGA odpowiadający za generację przebiegów zegarowych niezbędnych do przeprowadzenia prawidłowego odcz[...]

Szybki, niskolatencyjny system szeregowania danych pomiarowych implementowany w układzie FPGA DOI:10.15199/13.2017.8.9


  Jednym z rozwiązań używanych obecnie w diagnostyce gorącej plazmy tokamakowej są detektory typu GEM (GEM - ang. Gas Electron Multiplier) pracujące w zakresie miękkiego promieniowania rentgenowskiego. Na podstawie danych zebranych z detektora można określić takie parametry plazmy jak prędkość rotacji, temperaturę jonową oraz koncentrację domieszek. Detektory GEM przeznaczone dla tokamaków posiadają relatywnie dużą powierzchnię detekcyjną (rzędu decymetrów kwadratowych), zapewniają dobrą rozdzielczość przestrzenną i energetyczną oraz charakteryzują się odpornością na neutrony. Zadaniem systemu diagnostycznego omawianego w niniejszym artykule jest zwiększenie bezpieczeństwa eksploatacji tokamaka oraz polepszenie kontroli procesu fuzji termojądrowej w warunkach ziemskich. System detekcyjny dokonuje detekcji promieniowania z bardzo dużą częstością. Wymagało to opracowania wielokanałowego, wydajnego obliczeniowo i niskolatencyjnego elektronicznego systemu pomiarowego bazującego na układach FPGA, które na bieżąco przetwarzają uszeregowane dane pomiarowe. W niniejszym artykule omówiono metodę przetwarzania sygnałów cyfrowych z wielu źródeł pod kątem wydajnego, niskolatencyjnego ich szeregowania oraz przedstawiono rezultaty realizacji w układach FPGA. Zasada działania detektora GEM polega na konwersji energii fotonów na proporcjonalny sygnał elektryczny (rys. 1). Foton promieniowania wnika przez okno katody do pierwszego obszaru detektora GEM, w którym powoduje jonizację gazu i generację elektronów. Swobodne elektrony poruszają się zgodnie z kierunkiem pola elektrycznego w stronę folii GEM. Dzięki mikro-otworkom w folii GEM, w których tworzy się duży gradient pola elektrycznego, następuje powielanie elektronów. Zależnie od konstrukcji detektora, liczba folii waha się od 1 do 4. Chmura elektronów, która opuszcza ostatnią folię, dociera do elektrod odczytowych - anod. Słabe sygnały ładunkowe zebrane z elektrod są wprowadzane na modu[...]

Modelowanie i implementacja układu sekwencera sygnałów ładunkowych z detektora GEM dla szybkiego systemu diagnostyki gorącej plazmy tokamakowej DOI:10.15199/59.2018.4.2


  Rolą współczesnych systemów diagnostycznych gorącej plazmy tokamakowej jest nie tylko zapewnienie szybkiego, wydajnego monitoringu zjawisk zachodzących w plazmie (m.in. prędkości rotacji, temperatury jonowej, koncentracji domieszek itp.), ale także niskolatencyjnego procesu sterowania uwięzieniem plazmy w polu magnetycznym (tj. pracy systemu w trybie sprzężenia zwrotnego). Zadania te wymagają zastosowania szybkich detektorów, umożliwiających wykrycie promieniowania plazmy z bardzo dużą częstością oraz użycia wielokanałowych, wydajnych obliczeniowo i niskolatencyjnych elektronicznych systemów pomiarowych pracujących w trybie czasu rzeczywistego. Wymagania te wynikają z potrzeby długotrwałego oraz powtarzalnego utrzymania procesu kontrolowanej syntezy termojądrowej następującej w gorącej plazmie tokamakowej w celu pozyskania nowego, bezpiecznego i bardzo wydajnego źródła energii. Dotychczasowe rozwiązania obrazowania zanieczyszczeń w plazmie zapewniały akwizycję danych pomiarowych w trakcie procesu wytwarzania i utrzymania plazmy, natomiast udostępnienie i analiza danych odbywały się w tzw. trybie off-line, tzn. już po zakończeniu eksperymentu. W artykule, tytułem wprowadzenia, omówiono zasadę działania systemu diagnostyki zanieczyszczeń pierwszej generacji zrealizowanego dla tokamaka JET. Wykorzystanie układów FPGA (Field-Programmable Gate Array) umożliwiło implementację szybkich procesów numerycznego przetwarzania sygnałów oraz procesu histogramowania wykonywanego równolegle dla wszystkich 256 kanałów pomiarowych detektora GEM (Gas Electron Multiplier), pracujących w zakresie miękkiego promieniowania X. Dzięki temu osiągnięto rozdzielczość czasową 10 ms dla serii kilku tysięcy kolejno wykonywanych rozkładów widmowych [1]. Konieczność dalszego zwiększenia rozdzielczości czasowej obrazowania do 1 ms (lub mniejszej), wraz z realizacją analizy spektralnej w czasie rzeczywistym (w tzw. trybie on-line), leży u podstaw budowy syst[...]

Elektroniczne systemy pomiarowe do diagnostyki gorącej plazmy tokamakowej DOI:10.15199/13.2016.2.1


  W artykule przedstawiono opracowane przez Zespół Autorów wydajne elektroniczne systemy pomiarowe do diagnostyki gorącej plazmy tokamakowej bazujące na detektorach GEM. Na wstępie krótko omówiono realizowane eksperymenty fizyczne związane z gorącą plazmą oraz zasadę działania detektorów GEM, wykorzystywanych do rejestracji promieniowania miękkiego typu X emitowanego w tokamakach. Przedstawiono ogólną koncepcję budowy systemów elektronicznych do realizacji diagnostyki gorącej plazmy, działających z dużą ilość kanałów wejściowych oraz krótkim czasem przetwarzania danych. Omówiono dwa kluczowe systemy opracowywane przez Zespół: system sprzętowego histogramowania miękkiego promieniowania X oraz system szybkiej akwizycji potokowej miękkiego promieniowania X. Opisano budowę sprzętową systemów, opracowane koncepcje oraz implementacje oprogramowania (firmware oraz software) wraz z niezbędnymi algorytmami. Przedstawiono ponadto wyniki z działania systemów. Słowa kluczowe: FPGA, tokamak, plazma, detektor GEM, diagnostyka, system pomiarowy, szybka akwizycja danych, HDL, przetwarzanie danych.Ze względu na duży wpływ zanieczyszczeń plazmy w reaktorach typu tokamak na parametry wyładowania, w badaniach nad nią dużą rolę odgrywają diagnostyki oparte na pomiarach koncentracji domieszek. W szczególności pomiar polega na estymacji intensywności promieniowania linii emisyjnych poszczególnych elementów wewnątrz obszaru badanej plazmy. Domieszki te powstają na wskutek oddziaływania plazmy z otaczającymi ją powierzchniami, a więc koncentracja ich jest silnie zależna od materiałów pierwszej ścianki komory tokamaka. Wolfram, który jest głównym kandydatem na materiał pierwszej ścianki w projekcie ITER oraz w przyszłym reaktorze syntezy termojądrowej [1], zaczął być w ostatnich latach stosowany w wielu urządzeniach, w tym w projekcie WEST, gdzie jest wdrażany aktywnie chłodzony dywertor (część reaktora typu tokamak służąca do odprowadzania nieczysto[...]

System zabezpieczeń elektronicznego systemu pomiarowego do diagnostyki gorącej plazmy tokamakowej DOI:10.15199/13.2017.8.8


  Elektroniczny system pomiarowy do diagnostyki gorącej plazmy tokamakowej jest narażony na silne promieniowanie neutronowe. Promieniowanie to ma bardzo szkodliwy wpływ na pracę systemów elektronicznych. Wywołuje ono dwa fundamentalne mechanizmy uszkodzeń: ● Degradację sieci krystalicznej, która jest powodowana przez neutrony, protony, cząstki alfa, ciężkie jony i fotony gamma o bardzo wysokiej energii. Zmieniają one ułożenie atomów sieci krystalicznej, powodując trwałe uszkodzenia. Zwiększają liczbę rekombinacji i wyczerpują nośniki mniejszościowe pogarszając właściwości złącz półprzewodnikowych. Większe dawki promieniowania w krótkim czasie powodują częściowe wyżarzanie ("gojenie") uszkodzonej sieci krystalicznej, co prowadzi do mniejszej liczby uszkodzeń niż w przypadku niskiej intensywności promieniowania oddziałującej przez długi czas. Problem ten jest szczególnie istotny w przypadku tranzystorów bipolarnych, które są uzależnione od nośników mniejszościowych w bazie. Zwiększone straty spowodowane rekombinacją powodują utratę wzmocnienia tranzystora. ● Jonizację, którą wywołują naładowane cząstki, ale o zbyt małych energiach aby wywołać degradacje struktury krystalicznej. Jonizacja powoduje drobne usterki i miękkie błędy. Efekty te są zazwyczaj odwracalne, choć w niektórych przypadkach mogą spowodować trwałe zniszczenie urządzania jeśli wywołają inne mechanizmy uszkodzeń (np. efekt latch-up). Skuteczną metodą zapobiegania skutkom degradacji sieci krystalicznej jest wykorzystanie elementów elektronicznych cechujących się odpornością na promieniowanie neutronowe. Najbardziej szkodliwym efektem związanym z jonizacją jest latch-up, którego szybkie wykrycie i odpowiednie przeciwdziałanie pozwalają na ochronę urządzenia przed jego skutkami. Pomiar ilości neutronów w środ[...]

Systemy elektroniczne dla toru odczytu danych w eksperymencie CBM DOI:10.15199/13.2018.5.1


  CBM (ang. Compressed Baryonic Matter - Skompresowana materia barionowa) jest eksperymentem fizyki wysokich energii, który będzie realizowany w centrum FAIR (Facility for Antiproton and Ion Research) w Darmstadt w Niemczech. FAIR będzie jednym z największych na świecie centrów naukowych. Będzie się składać, między innymi, z akceleratora o średnicy 1,1 km, 24 budynków o różnym przeznaczeniu oraz kilkunastu detektorów wykorzystywanych do prowadzenia badań w różnych dziedzinach fizyki. CBM jest jednym z ważniejszych eksperymentów, które będą odbywać się na terenie FAIR. Będzie on badał właściwości materii w warunkach niemożliwych do osiągnięcia w żadnym innym istniejącym eksperymencie [1]. Eksperymenty wysokich energii polegają na rozpędzaniu grup cząstek do prędkości zbliżonych do prędkości światła w celu nadania im bardzo dużej energii kinetycznej, a następnie wywołaniu kolizji z grupą cząstek poruszającą się w przeciwnym kierunku lub z nieruchomym celem. Zderzenie powoduje uwolnienie energii wystarczającej do rozpadu cząstek na elementy składowe. Ponieważ nie istnieje detektor, który byłby w stanie zarejestrować wszystkie możliwe cząstki powstałe w kolizji, miejsce zdarzenia otoczone jest wieloma wyspecjalizowanymi detektorami, a wyniki ich pomiarów łączone są później. Pomimo, że zasada działania większości eksperymentów jest bardzo zbliżona, to ze względu na takie czynniki jak: rodzaj cząstek jakie mogą być rozpędzane w akceleratorze, maksymalna energia jaką można im nadać czy wreszcie typy detektorów otaczające obszar kolizji każdy z eksperymentów wyspecjalizowany jest w badaniu materii o pewnych właściwościach. Naukę badającą oddziaływania silne, które dominują we wnętrzach atomów określa się mianem chromodynamiki kwantowej. Stan materii można przedstawić jako zależność gęstości materii (oś pozioma) oraz temperatury (oś pionowa), co pokazano na rysunku 1. Materia jaką znamy znajduje się w lewym dolnym rogu wykresu (nis[...]

 Strona 1