profil Twój Profil
Kliknij, aby zalogować »
Jesteś odbiorcą prenumeraty plus
w wersji papierowej?

Oferujemy Ci dostęp do archiwalnych zeszytów prenumerowanych czasopism w wersji elektronicznej
AKTYWACJA DOSTĘPU! »

Twój koszyk
  Twój koszyk jest pusty

BĄDŹ NA BIEŻĄCO -
Zamów newsletter!

Imię
Nazwisko
Twój e-mail

Czasowy dostęp?

zegar

To proste!

zobacz szczegóły

ZAMÓW EZEMPLARZ PAPIEROWY!

baza zobacz szczegóły
ELEKTRONIKA, ENERGETYKA, ELEKTROTECHNIKA »

WIADOMOŚCI ELEKTROTECHNICZNE


(ang. ELECTROTECHNICAL NEWS)

Czasopismo Stowarzyszenia Elektryków Polskich (SEP)
rok powstania: 1933
Miesięcznik

Czasopismo dofinansowane w 2010 r. przez Ministerstwo Nauki i Szkolnictwa Wyższego.

Tematyka:
Artykuły przeglądowe, problemowe i dyskusyjne (ze szczególnym zwróceniem uwagi na aspekty praktyczne) ze wszystkich podstawowych działów współczesnej elektrotechniki silnoprądowej: akumulatory i ogniwa, aparaty i urządzenia, automaty... więcej »

Artykuły naukowe zamieszczane w czasopiśmie są recenzowane.

Procedura recenzowania

Formularz recenzji

Prenumerata

Dear Customer! Order an annual subscription (PLUS version) and get access to other electronic publications of the magazine (year 2004-2013), also from March - year 2014.
Take advantage of the thousands of publications on the highest professional level.
prenumerata papierowa roczna PLUS (z dostępem do archiwum e-publikacji) - tylko 466,56 zł
prenumerata papierowa roczna PLUS z 10% rabatem (umowa ciągła) - tylko 419,90 zł *)
prenumerata papierowa roczna - 378,00 zł
prenumerata papierowa półroczna - 189,00 zł
prenumerata papierowa kwartalna - 94,50 zł
okres prenumeraty:   
*) Warunkiem uzyskania rabatu jest zawarcie umowy Prenumeraty Ciągłej (wzór formularza umowy do pobrania).
Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach) do Zakładu Kolportażu Wydawnictwa SIGMA-NOT.
Zaprenumeruj także inne czasopisma Wydawnictwa "Sigma-NOT" - przejdź na stronę fomularza zbiorczego »

2012-12

zeszyt-3526-wiadomosci-elektrotechniczne-2012-12.html

 
W numerze m.in.:
Badania układów stykowych w rozbieralnej komorze próżniowej (Krzysztof Krasuski, Henryk Sibilski, Andrzej Dzierżyński)
Artykuł zawiera opis stanowiska oraz wyniki badań łączeniowych styków wytwarzających osiowe pole magnetyczne (AMF) oraz styków wytwarzających radialne pole magnetyczne (RMF). Liczne patenty i publikacje opracowane w różnych ośrodkach dowodzą, że rozkład pola magnetycznego na powierzchni styków ma wpływ na równomierność rozkładu łuku dyfuzyjnego na całej powierzchni nakładek stykowych. Optymalny kształt układów stykowych powoduje zwiększenie zdolności wyłączeniowej komory, a jednocześnie pozwala na zmniejszenie jej gabarytów. Skupienie łuku w centralnej części elektrod jest przyczyną intensywnej erozji styków i powoduje obniżenie trwałości łączeniowej komory próżniowej [1-4]. Instytut Elektrotechniki przy współpracy z Instytutem Tele- i Radiotechnicznym prowadzi badania zwarciowe układów stykowych w rozbieralnej komorze próżniowej opracowanej w ramach projektu badawczego. Przeprowadzono próby otwierania styków przy prądzie od 2 do 16 kA - przy częstotliwości przemysłowej. Badania łączeniowe wykonano przy użyciu układu drgającego LC, korzystając z baterii kondensatorów i układu dławików wielkoprądowych. Zdjęcia poddano obróbce numerycznej w celu określenia rozkładu plamek katodowych na powierzchni nakładek stykowych. Celem pomiarów jest zbadanie wpływu kształtu nacięć na nakładkach stykowych na postać łuku pomiędzy stykami. Wyniki badań posłużą do zaprojektowania nowych modeli styków. Stanowisko badawcze Bazując na doświadczeniach zdobytych podczas badań komór próżniowych różnych producentów opracowano założenia do budowy rozbieralnej komory próżniowej [6]. Instytut Tele- i Radiotechniczny wykonał model rozbieralnej komory próżniowej zgodnie z dokumentacją opra... więcej»

XV Ogólnopolska Konferencja "Zabezpieczenia przekaźnikowe w energetyce" (Krzysztof Woliński)
Komitet Automatyki Elektroenergetycznej (KAE) Stowarzyszenia Elektryków Polskich zorganizował w dniach 17-19 października 2012 r. kolejną Konferencję poświęconą problematyce zabezpieczeń i automatyce w sieciach elektroenergetycznych. Honorowy patronat sprawowała firma Energotest z Gliwic, która obchodziła jubileusz 20-lecia działalności. Uczestnicy spotkali się w Hotelu&SPA Kocierz na szczycie Przełęczy Kocierskiej w Parku Krajobrazowym Beskidu Małego. W Konferencji udział wzięło 180 osób reprezentujących służby zabezpieczeniowe: operatora sieci przesyłowej, dystrybucji i elektrowni, ośrodki akademickie z Gdańska, Warszawy i Wrocławia oraz przedstawicieli krajowych i zagranicznych firm producentów elektroenergetycznej aparatury zabezpieczeniowej. Uczestników Konferencji powitali: prof. Eugeniusz Rosołowski - przewodniczący KAE SEP oraz mgr inż. Zbigniew Kochel - dyrektor ds. marketingu firmy Energotest, który przedstawił Uczestnicy na sali obrad Prof. Jan Machowski wygłasza referat Prof. Eugeniusz Rosołowski prowadzi obrady Konferencji historię i zakres działalności firmy. W Słowie wstępnym zamieszczonym w materiałach konferencyjnych prof. Eugeniusz Rosołowski stwierdził: Konferencje i seminaria organizowane przez KAE (…) stały się ważnym miejscem spotkań inżynierów specjalizuj... więcej»

Widoczność kolejowych semaforów świetlnych w następstwie planowanej zmiany usytuowania maszynisty w kabinie (Wojciech Żagan, Dariusz Czyżewski)
Problem zasygnalizowany w tytule wynika z zamiaru wprowadzenia do ruchu kolejowego w Polsce lokomotyw, w których stanowisko maszynisty z prawej strony (nad główką prawej szyny) zostanie przeniesione na lewą stronę, tj. nad główkę lewej szyny. To przemieszczenie w poziomie (1435 mm) zmienia geometrię pola widzenia maszynisty, lepiej widoczna będzie lewa półprzestrzeń, ale jednocześnie zmienią się warunki geometryczne obserwacji sygnałów i znaków kolejowych, które wykonane zgodnie z obecnie obowiązującymi przepisami, są dedykowane położeniu maszynisty z prawej strony. Kluczowe jest więc pytanie, jak zmiana warunków obserwacji sygnału dochodzącego z semaforów wpłynie na kwestię ich widoczności. Jest to tym bardziej istotny problem, że dotychczasowy sposób "ustawiania geometrycznego" (regulacji) tych semaforów był przeznaczony dla maszynisty siedzącego po prawej stronie. Cechy identyfikacji sygnałów świetlnych Sygnał świetlny docierający do odbiorcy charakteryzuje się cechami, które jednoznacznie go identyfikują: - światłość (luminancja), - barwa, - kształt (kontur), - wielkość kątowa, - położenie w polu widzenia obserwatora, - charakterystyczny sposób emisji (taktowanie, kodowanie). Wymienionych sześć cech sygnału świetlnego oznacza również, że każda z nich samodzielnie może decydować o rozróżnialności sygnału. Jeśli bowiem mówi się o dwóch sygnałach świetlnych w pewnym systemie sygnalizacji (np. o sygnale hamowania i sygnale pozycyjnym pojazdu) to wystarczy, aby różniły się one przynajmniej jedną cechą, a zapewni to poprawną interpretację każdego z sygnałów. Najczęściej jednak, aby zapewnić jednoznaczność interpretacji sygnału, do jego rozróżniania wykorzystuje się więcej niż jedną cechę. Zwykle w układach sygnalizacji pierwszoplanową cechą pozwalającą na rozróżnianie jest barwa sygnału. Kształt też może być cechą charakterystyczną sygnału pozwalającą na jego odróżnianie, ale pod warunkiem, że odbiór informacji zawartej w ... więcej»

LUDZIE POLSKIEJ ELEKTRYKI - Prof. Romuald Kosztaluk (1932-2009) (Krystian Leonard Chrzan)
Romuald Kosztaluk urodził się 1 stycznia 1932 r. w Zamościu. Jego rodzicami byli Edward - nauczyciel historii oraz Wiarosława z domu Zielińska. Mieli dwoje dzieci - Romualda i Danutę. Ukończył Wydział Elektryczny Politechniki Gdańskiej, uzyskując tytuł inżyniera w 1954 r. a magistra w 1956 r. Za pracę "Badania skuteczności układów ochrony odgromowej dławikowej w stacjach elektroenergetycznych 110 kV" pod kierunkiem prof. S. Szpora w 1965 r. uzyskał stopień doktora. Habilitował się na Politechnice Warszawskiej w roku 1976 na podstawi... więcej»

XIV Międzynarodowe Warsztaty Doktoranckie OWD (Krzysztof Kluszczyński)
Październikowe XIV Międzynarodowe Warsztaty Doktoranckie OWD zgromadziły w tym roku rekordową liczbę doktorantów (140) oraz profesorów- ekspertów (40) z wielu krajów Europy (m.in. z Polski, Niemiec, Francji, Czech, Słowacji, Słowenii, Węgier, Ukrainy i Białorusi). Zorganizowane zostały przez Polskie Towarzystwo Elektrotechniki Teoretycznej i Stosowanej - PTETiS, Wydział Elektryczny Politechniki Śląskiej (Katedra Mechatroniki), Komitet Elektrotechniki PAN, Centrum Edukacji w Mechatr... więcej»

Zobacz wszystkie publikacje »

2012-11

zeszyt-3492-wiadomosci-elektrotechniczne-2012-11.html

 
W numerze m.in.:
Badania wybranych odbiorników występujących u odbiorców indywidualnych pod kątem ich wpływu na linię zasilającą (Małgorzata Łatka, Łukasz Walczak)
W artykule przedstawiono wybrane wyniki badań i analizy oddziaływania na linię zasilającą odbiorników najczęściej występujących u odbiorców indywidualnych. Moc jednostkowa tych odbiorników nie jest zbyt duża, ale ich liczba u odbiorców indywidualnych, a także liczba gospodarstw domowych przyłączonych do krajowego systemu elektroenergetycznego (KSE) stale rośnie, co powoduje, że sumaryczny wpływ tych odbiorników na jakość energii elektrycznej jest coraz bardziej znaczący. Ponadto charakter tych odbiorników zdecydowanie zmienia się w kierunku elementów nieliniowych powodujących przepływ bardzo odkształconego prądu w sieci. Może mieć to duży wpływ na pojawienie się w systemie elektroenergetycznym wielu niekorzystnych zjawisk i pogorszenie jakości energii elektrycznej. Problem określania jakości energii elektrycznej w Polsce praktycznie nie istniał, aż do lat 80. XX w. Większość odbiorników miała charakter liniowy, a nieliczne odbiorniki nieliniowe, pracowały z reguły w wydzielonych sieciach, stąd ich wpływ na KSE był niewielki. Dziś praktycznie w każdym gospodarstwie domowym - u każdego odbiorcy indywidualnego - występuje wiele urządzeń elektrycznych, które w większym lub mniejszym stopniu oddziałują na linię zasilającą. Proste urządzenia, takie jak czajnik elektryczny czy toster mają niewielki wpływ na jakość energii, ale coraz więcej urządzeń używanych w każdym domu zawiera np. zasilacze impulsowe, silniki wysokoobrotowe zasilane przez układy energoelektroniczne itp., które niekorzystnie oddziałują na linię zasilającą. To oddziaływanie pogarsza jakość energii elektrycznej, a przecież energia elektryczna jest produktem, dlatego tak jak inne produkty, powinna spełniać wymagania jakościowe określone w normach. W krajowym systemie elektroenergetycznym, ze względu na brak zainstalowania odpowiednich przyrządów pomiarowych, obecnie nie prowadzi się masowych pomiarów stanu jakości energii zasilania u odbiorców indywidualnych. Pomia... więcej»

Kto jest właścicielem danych pomiarowych? (Krzysztof Billewicz)
Dyrektywa Parlamentu Europejskiego i Rady 2009/72/WE dotycząca wspólnych zasad rynku wewnętrznego energii elektrycznej i uchylająca dyrektywę 2003/54/WE w zakresie wdrożenia systemu inteligentnego opomiarowania mówi, że: wdrożenie inteligentnych systemów pomiarowych może być uzależnione od ekonomicznej oceny wszystkich długoterminowych kosztów i korzyści dla rynku oraz indywidualnego konsumenta lub od oceny, która z form inteligentnego pomiaru jest uzasadniona z ekonomicznego punktu widzenia, najbardziej opłacalna oraz w jakim czasie wdrożenie tych rozwiązań jest wykonalne. Ocena ma być przeprowadzona do 3 września 2012 r. Oczywiście dyrektywa ta nie obliguje państw członkowskich do wprowadzenia (do 2020 r.) zaawansowanej infrastruktury pomiarowej AMI (advanced metering infrastructure) niewłaściwie utożsamianej z wdrożeniem u odbiorców zaawansowanych funkcjonalnie, zdalnie odczytywanych i konfigurowanych, elektronicznych liczników, zwanych inteligentnymi licznikami. Dyrektywa UE decyzję takiego wdrożenia pozostawia krajom członkowskim, które powinny ją podjąć na podstawie przesłanek ekonomicznych. Wraz z wprowadzeniem AMI pojawia się kwestia pozyskania i przetwarzania ogromnej ilości danych pomiarowych pochodzących z takich liczników. Definicja danych pomiarowych Dane pomiarowe to wirtualne byty - informacje, wartości liczbowe, które aby istnieć muszą być gdzieś przechowywane. Jest to uporządkowany zbiór wartości liczbowych informujący o wartościach wielkości zmierzonej, zarejestrowanych przez określone urządzenie pomiarowe. Dane pomiarowe są to dane rzeczywiste uzyskane z licznika energii elektrycznej, zawier... więcej»

WYDAWNICTWA
Silniki elektryczne w praktyce elektronika.Jacek Przepiórkowski: Silniki elektryczne w praktyce elektronika. Wydanie II, poprawione i uzupełnione, Wydawnictwo BTC, Warszawa 2012.Książka jest poradnikiem-przewodnikiem po nowoczesnych silnikach elektrycznych małej mocy. Autor zawarł w niej wiele praktycznych informacji na temat zasad działania i budowy elektronicznych sterowników do silników (…) w tym rozwiązań opartych na mikrokontrolerach. W poszczególnych rozdziałach Autor omawia następujące zagadnienia: Informacje podstawowe - podział silników elektrycznych, parametry silników, Zasady elektronicznego sterowania silników, elementy wykonawcze - metody załączania i sterowania silników, pojedynczy klucz tranzystorowy, mostek tranzystorowy typu H, układy z triakami, zasady łączenia elementów wykonawczych z mikroprocesorami, Silniki komutatorowe DC - b... więcej»

Ryby elektryczne (Stefan Gierlotka)
Jednym z pierwszych, dostrzeżonych poza piorunem zjawisk elektrycznych, a znanych człowiekowi już w starożytności były ryby elektryczne. Pierwszy hieroglificzny dokument opisujący elektrycznego suma pochodzi ze starożytnego Egiptu i datuje się na 4000 lat p.n.e. W starożytnym Rzymie elektryczność ryb była wykorzystywana w medycynie. W 46 r. Scribonius Largus - lekarz na dworze cesarza Klaudiusza stosował w leczeniu podagry czarną płaszczkę z rodziny Torpedinidae, którą kładł pacjentowi pod stopy. Pacjent stał na wilgotnym brzegu, aby woda obmywała jego stopy. Obecnie w lecznictwie stosuje się terapię wykorzystującą podobne zjawiska, ale już nie z użyciem elektrycznych ryb, a za pomocą specjalnego generatora impulsów. Narządy elektryczne u ryb Niektóre gatunki ryb należące do rodzin: drętwy, strętwy, mruki i sum elektryczny, wyewoluowały niezależne narządy elektryczne. Ryby te należą do gromad chrzęstno- i kostnoszkieletowych. Napięcie elektryczne wytwarzane u tych ryb służy do obezwładniania zdobyczy lub odstraszania napastników. Niektóre ryby swe narządy elektryczne wykorzystują do elektrolokacji i orientacji w środowisku. Największe węgorze elektryczne zdolne są do wytworzenia rażeniowego prądu elektrycznego o napięciu 600 V, sumy do 350 V, a drętwa brunatna do 200 V i natężeniu ok. 30 A. Ryby wykorzystują prąd rażeniowy zarówno do polowania i obrony. Ryby wytwarzające pole elektryczne do elektrolokacji generują napięcie do 5 V, które służy do rozpoznania środowiska w mętnej wodzie. Do tych ryb należą: mrukowate, strętwokształtne i raje. Do wytworzenia napięcia elektrycznego ryby wykorzystują czynnościowe prądy elektryczne powstające w mięśniach, nerwach i innych tkankach. Generowany prąd elektryczny płynie tylko w jednym kierunku. Wytworzona energia jest uzależniona od rozmiarów narządu elektrycznego. Wyładowania następują seriami impulsów, po czym na krótki czas ustają, aby ten narząd mógł się zregenerować. Narządy wytwa... więcej»

LUDZIE POLSKIEJ ELEKTRYKI - Mgr inż. Jerzy Bogusław Lisiecki (1925-2008) (Krystian Leonard Chrzan, Roman Lisiecki)
Jerzy Lisiecki urodził się 6 stycznia 1925 r. w Rogowie (woj. kujawsko-pomorskie, powiat Żnin) jako syn Stanisława i Emilii (z d. Basta). W czasie wojny był żołnierzem Armii Krajowej. W 1946 r. ukończył liceum w Kościanie i rozpoczął studia na Politechnice Wrocławskiej na Wydziale Elektrycznym, pracując jednocześnie od 1949 r. na etacie młodszego asystenta. Od października 1950 r. do listopada 1951 r. odbył służbę wojskową, uzyskując stopień porucznika. W lipcu 1952 r. obronił pracę magisterską. W latach 1956-1964 pracował na etacie... więcej»

Zobacz wszystkie publikacje »

2012-10

zeszyt-3462-wiadomosci-elektrotechniczne-2012-10.html

 
W numerze m.in.:
Zyski energetyczne w wyniku stosowania rozwiązań nadążnych w układach fotowoltaicznych (Grażyna Frydrychowicz-Jastrzębska, Artur Bugała)
Dostosowanie orientacji przestrzennej odbiornika energii słonecznej względem kierunku padającego promieniowania słonecznego w celu uzyskania optymalnych zysków energetycznych, można realizować w układach stacjonarnych oraz układach nadążnych, tzw. "śledzenia za Słońcem" jedno- lub dwuosiowych. Zdecydowanie korzystniejsze rezultaty osiąga się przy zastosowaniu drugich z tym, że takie rozwiązanie wymaga dodatkowych nakładów finansowych (konstrukcja, montaż i eksploatacja - nieznacznie zwiększone zapotrzebowanie na energię elektryczną do zasilania układu). Charakterystyka układów nadążnych w fotowoltaice Na gęstość mocy promieniowania słonecznego, docierającego do odbiornika wpływ ma zarówno intensywność samego promieniowania jak i współczynnik przezroczystości atmosfery czy kąt padania promieni słonecznych na powierzchnię odbiornika, wynikający z pozornego ruchu Słońca. Zapewnienie optymalnego, ze względu na zysk energetyczny, kąta padania promieniowania można uzyskać w wyniku zmian orientacji przestrzennej odbiornika (kąta pochylenia do podłoża i kąta azymutu), przy czym dobre rezultaty można osiągnąć już w przypadku zmian nawet tylko w jednej płaszczyźnie [6, 7, 13]. Pozycjonowanie jest przeprowadzane zgodnie z parametrami astronomicznymi, np. na podstawie lokalizacji wybranej gwiazdy - w określonych odstępach czasu. Stosuje się metodę tzw. układu otwartego lub zamkniętego. Pierwsza z nich jest energochłonna i nie zapewnia wysokiej sprawności. Druga metoda - dzięki zainstalowaniu specjalnych czujników - pozwala uzyskać dodatkowe informacje o rodzaju, kierunku i wartości promieniowania. Połączenie obu wymienionych metod daje układ hybrydowy [9]. Dostosowanie orientacji przestrzennej odbiornika PV realizuje się w wyniku okresowej zmiany położenia w jednej lub dwóch osiach, przeprowadzanej ręcznie, względnie automatycznie. Układ jednoosiowy "podąża" za Słońcem ze wschodu na zachód (co stanowi odwzorowanie dziennej wędrówki Słoń... więcej»

Wielopunktowy rejestrator temperatury z separacją galwaniczną (Michał Balcerak, Marcin Marcinek, Wojciech Zeńczak)
W ramach projektu "Badania modelowe kotłów fluidalnych w aspekcie nowych, proekologicznych technologii energetycznych w siłowniach okrętowych" autorzy publikacji wykonali rejestrator temperatury grzałki oraz tzw. warstwy, który byłby niewrażliwy na ładunki statyczne o wysokiej amplitudzie oraz dużej częstości występowania. Miała być przy tym zapewniona pełna separacja galwaniczna przetworników pomiarowych od komputera. System pomiarowy miał zawierać 7 czujników temperatury warstwy, pracujących w temperaturze od 0 do 100°C oraz 4 czujniki temperatury grzałki, które powinny pracować przy temperaturach od 0 do 300°C. Dodatkowo, ze względu na dynamikę modelu rzeczywistego było wymagane, aby temperatura we wszystkich punktach była mierzona możliwie w tym samym czasie.Układ pomiaru temperatury można podzielić na część analogową, cyfrową, komunikacyjną (służącą do komunikacji z komputerem) oraz moduł zasilający. Komunikacja z komputerem odbywa się z wykorzystaniem protokołu RS232 za pośrednictwem dwóch światłowodów. Integralną częścią systemu, lecz znajdującą się w osobnej obudowie i mającą osobne źródło zasilania jest konwerter sygnałów optycznych na elektryczne, które są przekazywane bezpośrednio do komputera przez protokół zgodny ze standardem RS232. Dzięki światłowodowej transmisji sygnału uzyskano separację galwaniczną komputera od układu pomiarowego, co gwarantuje bezpieczeństwo komputera w przypadku nieskutecznej ochrony przed wyładowaniami elektrostatycznymi. Tor optyczny zbudowany jest z nadajników i odbiorników światła widzialnego (czerwonego) odpowiednio - TOTX173 i TORX173 oraz metrowej długości światłowodów. Część pomiarowa z czujnikami PT-100 Ze względu na wymagania odporności na wyładowania elektrostatyczne (które podczas pomiarów w rzeczywistym układzie osiągały długość ponad 1 cm) oraz temperaturę grzałki, która może dochodzić do 300°C, zdecydowano się na zastosowanie czujników temperatury typu PT-100. Czujniki typ... więcej»

Wyznaczanie pozycji obiektu prowadzącego w systemach rejestrujących obrazy DSO (Robert Suszyński, Mariusz Dziębowski)
W artykule przedstawiono nową koncepcję wyznaczania pozycji obiektu prowadzącego w systemie cyfrowego przetwarzania obrazów, dedykowanego dla układu śledzenia gwiazdy prowadzącej w astrofotografii długoczasowej obiektów dalekiego kosmosu (DSO). Jako główne kryterium oceny metody określenia pozycji wybrano małą złożoność algorytmu obliczeniowego, wymaganą przez układ DSP przetwarzający rejestrowane obrazy astronomiczne w czasie rzeczywistym. Wykonano analizę porównawczą zaproponowanej metody z innymi opisywanymi w literaturze. Opracowaną metodę zaimplementowano w eksperymentalnym układzie FPGA. System testowy został przebadany i pomierzono jego parametry w autonomicznym stanowisku do astrofotografii na rzeczywistych obrazach DSO. Otrzymane wyniki potwierdziły przydatność opracowanych metod i skuteczność systemu śledzenia obiektów w astrofotografii długoczasowej. Żyjemy w czasach dynamicznego rozwoju nauki i technologii. Wśród dziedzin, które znacząco się do tego przyczyniają są lotnictwo i astronautyka. Dążenie ludzi do oderwania się od powierzchni Ziemi, wzniesienia poza granicę atmosfery oraz ciekawość tajemnic otaczającego nas wszechświata, przyczynia się do intensywnego rozwoju astronomii. Dziedzina ta szeroko wykorzystuje najnowocześniejsze osiągnięcia optyki, elektroniki, informatyki, mechaniki precyzyjnej i wielu innych. kosmicznych. Umieszczenie przyrządu obserwacyjnego na orbicie jest niezwykle kosztowne, stąd nieustanny rozwój technologii teleskopów naziemnych. Astronomia obserwacyjna rozwija się w bardzo szybkim tempie i niemal codziennie dokonuje się nowych odkryć. Ponadto dzięki rozwojowi elektroniki, cyfrowych metod pozyskiwania obrazów i ich dalszej obróbki, jest to dziedzina, w której znaczącą liczbę badań i odkryć realizuje się wykorzystując podstawowy sprzęt obserwacyjny, na którego zakup mogą pozwolić sobie ośrodki akademickie, edukacyjne czy też pasjonaci-astroamatorzy. W celu wykonania zdjęć obiektów da... więcej»

Wystawa techniki świetlnej - Light+Building 2012
Kotková J.: Jaký byl Light+Building 2012. SVĔTLO (Praha) 2012 maj. Opracował - Witold Bobrowski.W dniach 15-20 kwietnia 2012 r. we Frankfurcie nad Menem odbyły się największe, międzynarodowe, specjalizowane targi techniki świetlnej Light+Building 2012. Głównym tematem targów było oszczędne i efektywne wykorzystanie energii elektrycznej w domach mieszkalnych, biurowcach, centrach handlowych i innych obiektach publicznych z zastosowaniem tzw. inteligentnych sieci, przy jednoczesnym zwiększeniu komfortu użytkowania. W ciągu sześciu dni wystawę odwiedziło 196 tys. zwiedzających (ponad 7% więcej niż targi Light+Building 2010). Blisko co... więcej»

Sterowanie oświetleniem w inteligentnych budynkach (Mariusz Kalinowski, Tomasz Zarębski)
We współczesnym budownictwie stosuje się wiele nowoczesnych technologii. Jednym z przykładów są inteligentne instalacje elektryczne. Zapotrzebowanie na tego typu rozwiązania wynika z konieczności zwiększenia komfortu użytkowania budynków oraz oszczędniejszego gospodarowania energią. Zaspokojenie tych potrzeb stało się możliwe dzięki zastosowaniu nowoczesnej elektroniki oraz technologii informatycznych. Na rynku są dostępne tego typu rozwiązania o różnym stopniu złożoności. Do najbardziej rozbudowanych i mających najszersze możliwości należą: - KNX/EIB (european installation bus), - Lon Works (local operating system), - LCN (local control network). Są to systemy o topologii magistralnej. Jako magistrala jest wykorzystywana albo skrętka dwuparowa, jak np. w KNX oraz Lon Works lub jak w przypadku LCN - dodatkowa żyła w przewodzie instalacyjnym. Najbardziej uniwersalny (z powodu swojej otwartości) jest system KNX. Jest on współtworzony przez wielu europejskich producentów z branży elektrotechnicznej. Systemy Lon Works oraz LCN są największymi dostępnymi na rynku systemami firmowymi, z tym że w LCN można wykorzystywać wiele przycisków dedykowanych do standardu KNX. Dla mniej wymagających użytkowników rynek oferuje całą gamę małych systemów firmowych. Do najbardziej popularnych należą xComfort, Z-Wave (z jego polską odmianą FIBARO), Teletask i inne. Część tych systemów, jak np. xComfort albo Z-Wave, jest wykonanych w technologii bezprzewodowej, co w znacznym stopniu ułatwia ich implementację do już istniejących instalacji. Sterowanie oświetleniem w inteligentnych instalacjach Oświetlenie w zasadniczy sposób wpływa na wygodę użytkowania pomieszczenia. Właściwie dobrane natężenie oświetlenia, rozmieszczenie opraw oraz barwa światła zapewniają wysoki komfort osób przebywających w budynku. Inteligentne instalacje pozwalają na konfigurację wielu scen świetlnych dopasowanych do konkretnych sytuacji. Możliwość zmiany sceny świetlnej w... więcej»

Zobacz wszystkie publikacje »

2012-9

zeszyt-3423-wiadomosci-elektrotechniczne-2012-9.html

 
W numerze m.in.:
Nowe funkcje w zespołach zabezpieczeń MiCOM platformy P10 (Andrzej Juszczyk)
W ostatnich dwóch latach, Schneider Electric Energy w Świebodzicach wprowadził na rynek nowe typy zespołów zabezpieczeń elektroenergetycznych - MiCOM P111Enh oraz MiCOM P116, należących do platformy MiCOM P10. Oba produkty zostały opracowane przez konstruktorów w Świebodzicach, z zamiarem ich wprowadzenia do globalnych sieci dystrybucyjnych Schneider Electric. W związku z tym, przy ich opracowaniu brano pod uwagę wymagania i potrzeby klientów z różnych regionów świata. Działanie na tak szerokim rynku pozwala na wzbogacanie rozwiązań technicznych wiedzą i doświadczeniem inżynierów z globalnej wioski, jaką jest współczesny świat. Ze względu na fakt, że zostały opracowane w Polsce, uważny obserwator może doszukać się w nich wielu rozwiązań wynikających z doświadczeń polskiej energetyki. Przyczyniły się one do sukcesu tych przekaźników na wielu rynkach zagranicznych. Pomimo że produkty zostały wprowadzone stosunkowo niedawno, konstruktorzy ciągle uzupełniają je o nowe funkcje. MiCOM P111Enh oraz MiCOM P116 łączy przede wszystkim fakt, że należą do tej samej platformy - P10, stąd struktura menu oraz funkcje są bardzo zbliżone do siebie. Jednak ze względu na różną aplikację, warstwa sprzętowa bardzo się różni. MiCOM P111Enh MiCOM P111Enh (rys. 1) jest przeznaczony do sieci średniego napięcia jako atrakcyjne rozwiązanie dla obiektów elektroenergetycznych, wymagających ekonomicznych rozwiązań (optymalnego stosunku - cena/funkcje). Całość sprzętu P111Enh jest zamknięta w bardzo małej obudowie (107×107×113 mm). Może to sugerować, że mamy do czynienia z prostym przekaźnikiem nadprądowym. Jednak dzięki graficznemu wyświetlaczowi LCD i oprogramowaniu komunikacyjnemu MiCOM S1 Studio zauważa się mnogość funkcji i elastyczność w jego konfiguracji (rys. 2 przedstawia dostępne funkcje w P111Enh). Co ważne, nie odbywa się to kosztem skomplikowania jego obsługi. Osoba, niepasjonująca się zbytnio automatyką zabezpieczeniową, jest w stanie w kr... więcej»

Srebrny Jubileusz Przedsiębiorstwa Badawczo-Wdrożeniowego OLMEX SA - 25 lat współtworzenia polskiego systemu elektroenergetycznego
Z dyrektorem generalnym, prezesem zarządu PBW OLMEX SA, dr. inż. Przemysławem Chojnowskim rozmawia Aleksander Dudkowski.Panie Prezesie, mija już ćwierć wieku odkąd OLMEX jako prywatna firma rozpoczął działalność na naszym rynku elektroenergetycznym. To piękny jubileusz zważywszy, że firma jako jedna z pierwszych w Polsce rozpoczęła prywatną działalność po transformacji ustrojowej. Proszę powiedzieć kilka słów o początkach OLMEX-u. Jan Parandowski w "Mitologii" pisze, że na początku był Chaos. Ja mogę stwierdzić, że na początku naszego istnienia był zapał. Pojawiły się sprzyjające warunki do podjęcia działalności gospodarczej w nieznanych jeszcze w Polsce warunkach wolnego rynku. To wyzwoliło w ludziach energię i chęć stworzenia czegoś nowego. W 1987 r., z inicjatywy pracowników naukowych ówczesnej Akademii Rolniczo-Technicznej w Olsztynie, zostało założone w Olsztynie Przedsiębiorstwo Badawczo-Wdrożeniowe OLME X Sp. z o.o. Przedmiot działalności obejmował prace projektowe, pomiarowe, badawcze, wdrożeniowe, montażowe i instalatorskie z zakresu gospodarki energetycznej w zakładach przemysłowych, ze szczególnym uwzględnieniem przedsięwzięć związanych z racjonalizacją i ograniczeniem zużycia czynników energetycznych. Idea rozwiązywania problemów na podstawie badań naukowych oraz praktycznych doświadczeń zdobytych w przemyśle towarzyszyła naszej firmie od samego początku i trwa aż do dziś. Wspomniał Pan o przedsięwzięciach związanych z racjonalizacją i ograniczeniem zużycia czynników energetycznych. Czego dokładnie one dotyczyły? Podjęliśmy się rozwiąz... więcej»

Badanie wpływu konstrukcji komory próżniowej i mechanizmu przełączania na zdolność łączeniową rozłączników SN (Stanisław Kiszło, Andrzej Frącek, Zbigniew Szermer)
Od roku 2010 Instytut Energetyki - Zakład Doświadczalny w Białymstoku prowadzi prace badawczo-rozwojowe nad rozłącznikami napowietrznymi średniego napięcia 24 kV wyposażonymi w próżniowe komory rozłącznikowe. Nowe rozwiązanie zespołu gaszenia (przerywania) łuku zaadaptowano do rozłączników SN typu SRN-24 w miejsce szczelinowej komory powietrznej. Po próbach konstruktorskich, wykonano partię prototypową rozłączników przeznaczonych do badań mechanicznych i elektrycznych. Właściwości elektroizolacyjne próżni W wyłącznikach i rozłącznikach próżniowych średniego napięcia zostały wykorzystane takie właściwości elektroizolacyjne jak: duża wytrzymałość elektryczna, niska stratność dielektryczna i gwałtowne odzyskiwanie wytrzymałości elektrycznej po przeskoku. Proces inicjowania i rozwoju przeskoku w próżni jest procesem złożonym, w którym występuje wiele zjawisk fizycznych [4]. Podstawowymi wielkościami charakteryzującymi układ izolacyjny są: wartość prądu płynącego przez układ przy określonej wartości napięcia na zaciskach układu oraz napięcie przeskoku. Wysokość napięcia przeskoku jest uzależniona od wartości ciśnienia gazów resztkowych w próżni i odległości elektrod. Na rys. 1 przedstawiono taką zależność [4]. Napięcie przes... więcej»

Kazimierz Szpotański we wspomnieniu syna (Jacek Szpotański)
Ja, Jacek Szpotański, urodziłem się 17 sierpnia 1927 r. na Kamionku, w dzielnicy Warszawa-Praga, w domu wybudowanym na terenie ogrodu graniczącego z terenem fabryki mojego Ojca. Ojciec miał wtedy 40 lat. Był średniego wzrostu, krępej budowy ciała. Miał gęstą, ciemną, krótko strzyżoną czuprynę. Był człowiekiem ruchliwym, niespożytej energii i o wielu zainteresowaniach, z szerokimi znajomościami. Znał kilka języków. Praktycznie nie brał urlopu, a jeśli wypoczywał to czynnie i krótko. Już wtedy był uznanym autorytetem i miał dużą praktykę zawodową. Jego żona Maria - moja Matka była piękną kobietą, wysoką, zgrabną, o dużych wyrazistych niebieskich oczach. Była szatynką o bujnych włosach, łagodnych rysach, spokojnego usposobienia i cichym melodyjnym głosie. Zajmowała się dziećmi, tj. córką Krystyną (architekt- urbanista) i synem, astmatycznym urwisem, który przyniósł sobie imię Jacek (to ja). Matka poza wychowywaniem dzieci, zajmowała się domem, który był otwarty i pełen ludzi. Trzecim dzieckiem, którym zajmował się Ojciec, była Jego fabryka. Już od początku nadał jej perspektywiczną nazwę - Fabryka Aparatów Elektrycznych Kazimierz Szpotański. Pochłaniała ona Ojca bez reszty, a Ojciec wykorzystywał w niej swoje zdolności organizacyjne, menedżerskie oraz szerokie kontakty personalne. Jego niezłomny charakter i wizjonerstwo skutkowały tym, że fabryka nie tylko mogła się rozwijać, ale także zapewniała stabilność zatrudnienia załogi. Atmosfera pracy w fabryce była przyjazna, a relacje międzyludzkie wręcz rodzinne. Ojciec wierzył, że tylko z dobrą, zadowoloną i ambitną załogą, utożsamiającą się z fabryką, można dużo osiągnąć. Jako właściciel i dyrektor miał niekwestionowaną władzę absolutną, zwłaszcza w sprawach produkcji i zamierzeń inwestycyjnych. Nie mając dostatecznych kapitałów własnych, do realizacji swych planów poszukiwał wspólników. Początkowo zawiązał spółkę z inż. Ciszewskim. Kapitału jednak nadal było za mało. Starania o kap... więcej»

Uszkodzenie wyłącznika zagrożeniem dla systemu elektroenergetycznego
R. Sandoval, J. Eternod: Evaluation of methods for breakerflashover protection. Archiwum firmy SEL. Opracował - Piotr Olszowiec. Przebicie bieguna jednej z faz wyłącznika stanowi przykład dość rzadkiej, lecz bardzo groźnej awarii w sieciach WN. Skutki takich zakłóceń są porównywalne z konsekwencjami zwarć jednofazowych lub pozostawienia załączonego jednego bieguna wyłącznika po wyłączeniu obu pozostałych. Ich wynikiem może być uszkodzenie generatora lub naruszenie stabilności pracy systemu elektroenergetycznego. W artykule omówiono okoliczności powstawania tych zakłóceń oraz środki zaradcze stosowane za granicą. Przebicie przerwy izolacyjnej bieguna wyłącznika Niektóre produkty rozkładu gazu zachodzącego pod działaniem łuku elektrycznego w warunkach roboczych mogą osadzać się na wewnętrznych powierzchniach komór wyłącznika. Bez wykonywania regularnej konserwacji zjawisko to może powodować wewnętrzne przebicie. Kilka innych czynników takich jak wewnętrzne lub zewnętrzne zanieczyszczenie, niskie ciśnienie gazu i jego wilgotność, również bywają przyczyną przeskoków między stykami otwartego wyłącznika. Przebicie przerwy międzystykowej może teoretycznie wystąpić w każdym wyłączniku znajdującym się pod napięciem, jednak prawdopodobieństwo takiej awarii jest znacznie wyższe w wyłącznikach używanych do synchronizacji generatorów lub sieci z systemem elektroenergetycznym. W procesie synchronizacji przesunięcie fazowe napięć po obu stronach bieguna wyłącznika zmienia się w granicach 0-360°, zaś różnica tych napięć (czyli... więcej»

Zobacz wszystkie publikacje »

2012-8

zeszyt-3394-wiadomosci-elektrotechniczne-2012-8.html

 
W numerze m.in.:
Jubileusz 80-lecia urodzin prof. zw. dr. hab. inż. Tadeusza Kaczorka (Krzysztof Woliński)
Wydział Elektryczny Politechniki Białostockiej zorganizował 23 maja 2012 r. seminarium naukowe z okazji jubileuszu osiemdziesiątych urodzin prof. Tadeusza Kaczorka. Seminarium pod patronatem JM Rektora Politechniki Białostockiej - prof. Tadeusza Citko - odbyło się w Auli I przy Wydziale Elektrycznym. Otwarcia seminarium dokonał dziekan Wydziału Elektrycznego dr hab. inż. Mirosław Świercz, prof. PB. Przywitał jubilata - prof. Tadeusza Kaczorka, Jego Magnificencję Rektora PB - prof. Tadeusza Citko, przedstawicieli Polskiej Akademii Nauk - prof. Jerzego Klamkę, prezesa Oddziału Katowickiego PAN, prof. Janusza Kacprzyka, przewodniczącego Rady Kuratorów Wydziału IV PAN, prof. Krzysztofa Malinowskiego, przewodniczącego Komitetu Automatyki i Robotyki PAN, członków Komitetu Automatyki i Robotyki PAN, JM Rektora Politechniki Radomskiej prof. Mirosława Lufta, przedstawicieli (głównie dziekanów) wydziałów elektrycznych uczelni technicznych z całego kraju oraz przybyłych gości. Następnie głos zabrał rektor Politechniki Białostockiej - prof. Tadeusz Citko. Witając Jubilata, przypomniał jego dotychczasowy wkład w rozwój uczelni, przekazał najserdeczniejsze życzenia z okazji jubileuszu oraz wspomniał, że prof. Barbara Kudrycka, minister n... więcej»

Konferencje naukowo-techniczne Oddziału Poznańskiego Stowarzyszenia Elektryków Polskich podczas targów EXPOPOWER 2012 (Ryszard Niewiedział)
Oddział Poznański Stowarzyszenia Elektryków Polskich im. prof. Józefa Węglarza był organizatorem dwóch konferencji naukowo- technicznych podczas Międzynarodowych Targów Energetyki EXPOPOWER 2012 w Poznaniu. 8 maja 2012 r. w pawilonie 8A Międzynarodowych Targów Poznańskich odbyła się III Konferencja Naukowo-Techniczna z cyklu Energooszczędność w oświetleniu - Efektywność energetyczna w oświetleniu - nowe wymagania i możliwości. Współorganizatorami konferencji były: Wydział Elektryczny Politechniki Poznańskiej, Wielkopolska Okręgowa Izba Inżynierów Budownictwa i Międzynarodowe Targi Poznańskie. Konferencja odbywała się pod patronatem Polskiego Komitetu Oświetleniowego SEP oraz Związku Producentów Sprzętu Oświetleniowego POL-Lighting. Radzie Programowej III Konferencji przewodniczył prof. Jacek Hauser z Politechniki Poznańskiej. Ponadto w skład Rady Programowej weszli: sekretarz naukowy - dr inż. Małgorzata Górczewska z Zakładu Techniki Świetlnej i Elektrotermii PP, prof. Wojciech Żagan z Politechniki Warszawskiej, prof. Konrad Domke z Politechniki Poznańskiej, dr inż. Jan Grzonkowski - przewodniczący Polskiego Komitetu Oświetleniowego SEP. Pracami Komitetu Organizacyjnego III Konferencji kierował członek Prezydium Zarządu OP SEP - mgr inż. Stefan Granatowicz, a sekretarzem organizacyjnym była mgr inż. Renata Kurka - sekretarz Zarządu OP SEP. Obrady konferencji otworzył wiceprezes Zarządu Głównego, a jednocześnie członek Prezydium Zarządu Oddziału Poznańskiego SEP - Stefan Granatowicz, witając serdecz... więcej»

Możliwości zastosowania inteligentnych instalacji elektrycznych w nowoczesnym budownictwie (Tomasz Zarębski)
Jednym z największych wyzwań stojących współcześnie przed człowiekiem jest zapewnienie dostatecznej ilości energii niezbędnej do prawidłowego funkcjonowania społeczeństwa. W obliczu nieuchronnego wyczerpania paliw kopalnych należy zastanowić się, jak ten cel zrealizować. Właściwe wydają się dwie drogi: - poszukiwanie nowych źródeł energii, - racjonalizacja zużycia energii. W dziedzinie nowych źródeł energii w wielu ośrodkach naukowych trwają intensywne prace nad wykorzystaniem odnawialnych jej źródeł. Najszerzej wykorzystywane są: energia wiatru i promieniowania słonecznego oraz biomasa. Coraz szerzej myśli się również o wykorzystaniu nieograniczonych zasobów energii wód mórz i oceanów. W obliczu niedawnych wydarzeń w japońskiej elektrowni atomowej Fukushima wykorzystanie tego rodzaju energii wzbudza wiele kontrowersji. Wprawdzie nowoczesne technologie budowy takich siłowni zapewniają bardzo wysoki stopień niezawodności i bezpieczeństwa, ale wśród społeczeństwa jest obawa przed ich eksploatacją. Racjonalizacja zużycia energii to działania zmierzające do jej oszczędnego i optymalnego zużywania. Realizacja tych działań powinna odbywać się poprzez wyrobienie w odbiorcach energii nawyków jej oszczędzania oraz wprowadzanie nowych technologii. Obecnie można zaobserwować burzliwy rozwój tego rodzaju technologii w nowoczesnym budownictwie. Wprowadzane są różne rozwiązania, które pozwalają na konstrukcję energooszczędnych budynków. Dotyczy to zarówno samej technologii budowlanej, jak i różnego rodzaju instalacji odbiorczych. Do ogrzewania budynków coraz częściej stosuje się odnawialne źródła energii, takie jak energia słońca, wiatru oraz geotermalna. W dzisiejszym świecie człowiek ma coraz mniej czasu, pamiętanie o wyłączaniu zbędnych odbiorników bywa bardzo problematyczne. Z tego względu bardzo pomocne okazuje się korzystanie z różnego rodzaju inteligentnych instalacji elektrycznych, które potrafią same "myśleć" o tym, co powinno ... więcej»

Wyznaczanie wartości impedancji zastępczej urządzenia piorunochronnego (Tomasz Kuczyński)
Podczas bezpośredniego wyładowania piorunowego w obiekt budowlany, jego urządzenie piorunochronne LPS (lightning protection system) powinno umożliwić niskoimpedancyjną drogę przepływu prądu do ziemi. W związku z tym impedancja urządzenia piorunochronnego [1, 9], widziana z punktu wprowadzenia prądu piorunowego, jest istotnym czynnikiem wpływającym na poziom występującego zagrożenia. Informacje o wartości tej impedancji, nazywanej w dalszej części artykułu impedancją zastępczą LPS, mogą być też pomocne przy określaniu dopuszczalnych odstępów izolacyjnych [7] pomiędzy elementami LPS a urządzeniami na dachu i wewnątrz obiektu. W prowadzonej analizie, do zamodelowania zjawisk zachodzących podczas bezpośredniego wyładowania piorunowego oraz przeprowadzenia obliczeń wartości impedancji zastępczej LPS wykorzystano pakiet oprogramowania CDEGS [5]. Program ten wykonuje obliczenia na podstawie teorii pola elektromagnetycznego. Obliczenia przeprowadzono dla LPS oraz dla LPS z dołączonymi przewodami sieci elektroenergetycznej niskiego napięcia. Impedancje zastępcze urządzeń piorunochronnych Obliczenia zagrożenia piorunowego przeprowadzono dla modeli urządzeń piorunochronnych domu jednorodzinnego o wymiarach 20 × 15 × 10 m (długość × szerokość × wysokość) oraz hali przemysłowej ... więcej»

WYDAWNICTWA
Elektryczne i elektroniczne czujniki temperatury Mariusz R. Rząsa, Bolesław Kiczma: Elektryczne i elektroniczne czujniki temperatury. Wydawnictwa Komunikacji i Łączności, Warszawa 2005. W słowie Od autorów czytamy: Niniejszą książkę poświęcono wyłącznie pomiarom temperatury z wykorzystaniem metod elektrycznych, a w szczególności cyfrowym czujnikom elektronicznym. Podano w niej podstawowe informacje na temat budowy i zasady działania podstawowych typów czujników temperatury, jednak w podstawowej części skupiono się na opisaniu znanych i produkowanych obecnie czujników temperatury. (…) Do książki dołączono płytę CD-ROM, która zawiera pełne dane katalogowe prezentowanych układów. Autorzy omawiają następującą problematykę: Wiadomości wstępne, Bezstykowe metody pomiaru temperatury - pirometr: monochromatyczny z zanikającym włóknem, dwubarwowy, fotoelektryczny, fotoelektryczny monochromatyczny, fotoelektryczny pasmowy, radiacyjny, radiacyjny soczewkowy, radiacyjny zwierciadłowy, radiacyjny ze światłowodem, Rezystancyjne czujniki temperatury - czujniki rezystancyjne metalowe, termistory, półprzewodnikowe rezystancyjne czujniki temperatury serii KTY, układy połączeń czujników rezystancyjnych, linearyzacja układem rezystorów, linearyzator z kluczami diodowymi, Półprzewodnikowe czujniki tem... więcej»

Zobacz wszystkie publikacje »

2012-7

zeszyt-3366-wiadomosci-elektrotechniczne-2012-7.html

 
W numerze m.in.:
Międzynarodowe Targi Energetyki EXPOPOWER 2012 "Energetyka przyszłości - przyszłość energetyki" (Krzysztof Woliński)
VI edycja Międzynarodowych Targów Energetyki EXPOPOWER odbyła się w Poznaniu w dniach 8-10 maja 2012 r. Równolegle odbyły się Międzynarodowe Targi Energii Odnawialnej GREENPOWER . Patronat honorowy nad EXPOPOWER 2012 sprawowało Ministerstwo Gospodarki. Patronem Targów był także przewodniczący Parlamentarnego Zespołu ds. Energetyki - Andrzej Czerwiński oraz organizacje branżowe: Izba Gospodarcza Ciepłownictwo Polskie, Izba Gospodarcza Energetyki i Ochrony Środowiska, Polska Izba Producentów Urządzeń i Usług na Rzecz ... więcej»

HVDC jutra (Łukasz Nogal, Piotr Kacprowicz)
W ostatnich latach można zaobserwować znaczny wzrost realizacji projektów wykorzystujących technologię HVDC do przesyłu energii elektrycznej. Wynika to z różnych przesłanek: ekonomicznych, środowiskowych, technicznych. Faktem jest, iż układy wysokonapięciowego prądu stałego dzięki swoim licznym zaletom będą stosowane coraz częściej i z jeszcze większym rozmachem. Technologia ta jest obecna na rynku energetycznym od ponad 50 lat. Warto więc zaznajomić się z nią bliżej, ponieważ już niedługo może nam ona towarzyszyć w jeszcze większym zakresie. Niniejszy artykuł został poświęcony nowatorskim przedsięwzięciom związanym z wykorzystaniem HVDC. Trochę historii W dzisiejszych czasach energia elektryczna generowana jest niemal wyłącznie jako energia prądu przemiennego. Warto jednak przypomnieć, iż energią po raz pierwszy wygenerowaną w celach komercyjnych była energia elektryczna prądu stałego, której to prekursorem był Thomas Alva Edison. Ponadto pierwsza elektroenergetyczna sieć przesyłowa również została zbudowana w oparciu o prąd stały. Jednakże technologia, którą dysponowano ponad sto lat temu, nie pozwalała na wykorzystanie prądu stałego niskiego napięcia do przesyłu energii na duże odległości, co spowodowało rozpowszechnienie alternatywnego sposobu, jakim był wysokonapięciowy prąd przemienny. Dopiero dzięki znacznemu rozwojowi w dziedzinie energoelektroniki, m.in. zaworów wysokiego napięcia (zbudowanych z lamp rtęciowych lub tyrystorów), przesył prądu stałego na duże odległości stał się możliwy, powodując wzrost wykorzystania tej technologii w systemie elektroenergetycznym. Pierwsze ćwierć wieku wysokonapięciowego prądu stałego, poczynając od 1954 r. do połowy lat 70., opierało się głównie na lampach rtęciowych. Przez kolejne 25 lat, do 2000 r., dominowała technologia wykorzystująca przekształtniki tyrystorowe. Obecna technologia wykorzystuje głównie tzw. self-commutated converters, czyli przekształtniki samoistnie komutują... więcej»

VII Lubuska Konferencja Naukowo-Techniczna Innowacyjne Materiały i Technologie w Elektrotechnice Nauka dla przemysłu – Przemysł dla nauki i–MITEL 2012 (Krzysztof Woliński)
W dniach 18-20 kwietnia 2012 r. Oddział Gorzowski Stowarzyszenia Elektryków Polskich wspólnie z Instytutem Inżynierii Elektrycznej Uniwersytetu Zielonogórskiego, przy współudziale: Wydziału Elektrycznego Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie, Instytutu Elektrotechniki, ENEA Operator Sp. z o.o., PTET iS Oddział w Szczecinie i Oddział w Zielonej Górze zorganizował Konferencję i-MITEL 2012 w Przyłęsku k. Gorzowa Wlkp. Konferencja została zorganizowana pod patronatem honorowym Wiceprezesa Rady Ministrów Ministra Gospodarki, Wojewody Lubuskiego oraz Prezesa SEP i pod patronatem naukowym Komitetu Elektrotechniki PAN oraz Komisji Nauk Elektrycznych PAN Oddział w Poznaniu. W Konferencji wzięło udział 150 osób. Na otwarcie Konferencji i-MITEL 2012 przybyli: przedstawiciel Ministerstwa Gospodarki - Maciej Sokołowski, dyrektor Departamentu Taryf Urzędu Regulacji Energetyki - dr Tomasz Kowalak, wicewojewoda lubuski - Jan Świrepo, wiceprzewodniczący Sejmiku Województwa Lubuskiego - Tomasz Wontor, radny Sejmiku Województwa Lubuskiego - Bogusław Andrzejczak, wiceprzewodnicząca Rady Miasta Gorzów Wlkp. - Grażyna Wojciechowska, wiceprezydent Gorzowa Wlkp. - Ewa Piekarz, Honorowy Przewodniczący Komitetu Elektrotechniki Polskiej Akademii Nauk i Honorowy Przewodniczący Komitetu Naukowego Konferencji i-MITEL - prof. Kazimierz Zakrzewski, przewodniczący Komitetu Elektrotechniki Polskiej Akademii Nauk - prof. An... więcej»

Pojazdy elektryczne i systemy ładowania (Stefan Wójtowicz)
W pierwszych pojazdach liczył się sam fakt, że jeździły. Pojazd parowy Nicolasa Cugnota z 1770 r. osiągał prędkość 4 km/h. Michael Faraday w 1827 r. wynalazł silnik elektryczny a Tomasz Alva Edison w 1830 r. otworzył w Nowym Jorku elektrownię. Zaczęły powstawać pierwsze pojazdy napędzane silnikiem elektrycznym. Na przełomie XIX i XX w. w najbardziej rozwiniętych krajach dominowały pojazdy parowe i elektryczne. Benzynowych było dużo mniej. Wszystkich razem w Stanach Zjednoczonych było ok. 4 tys. Pierwszy samochód z silnikiem spalinowym skonstruował w Niemczech w 1836 r. inż. Brackenburg. Silnik zasilany był mieszaniną wodoru i tlenu. Trudności związane z instalacją wodorową nie pozwoliły na rozwój tej technologii. W 1835 r. Thomas Davenport zbudował pierwszy samochód napędzany silnikiem elektrycznym. Teorię silnika czterosuwowego podał w 1862 r. Alphonse Bean de Rochas. Na tej podstawie Nicolaus Otto skonstruował prototyp silnika. Pierwszy pojazd napędzany silnikiem czterosuwowym został zaprezentowany w 1875 r. w Wiedniu. Jego konstruktorem był Siegfried Marcus. Carl Friedrich Benz i spółka inżynierów: Wilhelm Maybach oraz Gottlieb Wilhelm Daimler zbudowali pierwsze pojazdy z silnikami benzynowymi. W latach 80. XIX w. Francuz Jeantaud rozwinął konstrukcje pojazdów elektrycznych. W tym czasie doskonalone były także elementy mechaniczne pojazdów. Powstały: skrzynia biegów i układ kierowniczy. Firma Siemens&Halske założyła w Berlinie w 1892 r. próbną linię trolejbusową. Belgijski inżynier elektryk i kierowca wyścigowy, Camille Jenatzy, jadąc autem elektrycznym, ustanowił rekord prędkości dla automobili i osiągając 105,876 km/h, przekroczył jako pierwszy barierę 100 km/h. W 1913 r. Henry Ford uruchomił linię produkcyjną. Zaczęło się panowanie silnika spalinowego, które trwa do dziś. Wzrost zainteresowania pojazdami elektrycznymi wynika ze stopniowego przełamywania barier rozwojowych zasobników energii elektrycznej i układów elek... więcej»

Analiza numeryczna zagrożenia piorunowego urządzeń zasilanych z instalacji elektrycznej bez ochrony przeciwprzepięciowej (Tomasz Kuczyński)
Podczas bezpośredniego wyładowania piorunowego w urządzenie piorunochronne obiektu budowlanego źródłem zagrożenia jest przede wszystkim działanie rozpływającego się prądu pioruna [1, 7, 8] oraz przepięcia indukowane [6] przez ten prąd w instalacjach niskonapięciowych ułożonych wewnątrz obiektu. Oceniając zagrożenie piorunowe przyłączy zasilania urządzeń w obiekcie budowlanym przeanalizowano przypadek instalacji elektrycznej, w której nie zainstalowano układów urządzeń do ograniczania przepięć. Analizę numeryczną przeprowadzono wykorzystując pakiet oprogramowania CDEGS [5]. Oprogramowanie to do obliczeń zagrożenia piorunowego wykorzystuje teorię pola elektromagnetycznego, a urządzenia mogą być modelowane w postaci pojedynczych przewodów lub konstrukcji przestrzennych układu przewodów. Modelowanie zagrożenia piorunowego urządzeń Zagrożenie piorunowe przyłączy zasilania urządzeń analizowano w modelu przestrzennym przedstawionym na rys. 1. W modelu opracowanym w pakiecie oprogramowania CDEGS uwzględniono urządzenie piorunochronne, instalację elektryczną wraz z urządzeniami, linię elektroenergetyczną oraz uziom stacji transformatorowej. Urządzenie piorunochronne zostało zamodelowane dla hali przemysłowej o wymiarach: 40 × 40 × 20 m (długość × szerokość × wysokość). Uziom otokowy obiektu umieszczono w ziemi na głębokości 0,6 m w odległości 1 m od budynku. Do obliczeń przyjęto rezystywność gruntu równą 100 Ωm oraz odległość pomiędzy obiektem a stacją transformatorową wynoszącą 50 m. Napowietrzną linię elektroenergetyczną ... więcej»

Zobacz wszystkie publikacje »

2012-6

zeszyt-3337-wiadomosci-elektrotechniczne-2012-6.html

 
W numerze m.in.:
System rejestracji i analizy zdarzeń, zakłóceń oraz trendów (Zbigniew Kochel, Tadeusz Melecki, Mariusz Talaga, Michał Kaźmierczak)
Zachodzące zmiany własnościowe i organizacyjne w elektroenergetyce zawodowej oraz w przemyśle rodzą nowe potrzeby w obszarze rejestracji i analizy procesów i parametrów pracy urządzeń. Zaspokajanie tych potrzeb staje się możliwe dzięki rozwojowi mikroprocesorowych urządzeń i narzędzi informatycznych. Cele i oczekiwania stawiane przed systemami rejestracji i analiz na obiektach są zróżnicowane. Zwyczajowo system rejestracji i analiz zdarzeń oraz zakłóceń kojarzy się z jednym celem, czyli identyfikacją przyczyn pojawiających się stanów zakłóceniowych i awaryjnych. Centralny system, przedstawiony w artykule, może być wykorzystywany do bardzo wielu różnych celów, m.in. do: - szybkiego i precyzyjnego analizowania i ustalania przyczyn awarii rozległych, - tworzenia wiarygodnych dokumentów poawaryjnych, np. do celów ubezpieczeniowych, - statystycznej analizy stanów awaryjnych i zakłóceniowych do celów diagnostyki i profilaktyki, - oceny pracy urządzeń automatyki elektroenergetycznej i energoelektroniki, - oceny zmiany stanu technicznego urządzeń podstawowych, - monitorowania rozruchu urządzeń, - automatyzacji raportowania. Na każdym obiekcie występują ponadto charakterystyczne potrzeby związane z jego specyfiką technologiczną, stąd system centralnej rejestracji i analizy zdarzeń, zakłóceń oraz trendów projektuje się z uwzględnieniem indywidualnych oczekiwań i uwarunkowań obiektu. Podstawowe uwarunkowania i problemy Uwarunkowania Podstawowe uwarunkowania, ograniczające możliwości systemu, związane są ze sposobem rejestracji. W rejestratorach analogowych, Rys. 1. Przykładowa struktura systemu ET dla elektrowni Mgr inż. Zbigniew Kochel, mgr inż.Tadeusz Melecki, mgr inż. Mariusz Talaga, mgr Michał Kaźmierczak - Energotest Sp. z o.o., Gliwice Rok LXXX 2012 nr 6 61 AUTOMATYKA ELEKTROENERGETYCZNA nie kadry inżynierskiej z obszaru eksploatacji i utrzymania ruchu skutkuje, m.in. brakiem czasu na szkolenia, w tym na poznawanie nowych ... więcej»

Bezpieczeństwo elektrowni jądrowych z reaktorami III generacji oferowanych Polsce Część III. Podstawowe cechy bezpieczeństwa rozwiązań projektowych jądrowych bloków energetycznych oferowanych Polsce (Władysław Kiełbasa)
Inwestorowi pierwszych elektrowni jądrowych w Polsce - spółce PGE SA - oferowane są obecnie dwa rodzaje jądrowych bloków energetycznych generacji III+ wyposażonych w reaktory lekkowodne - dwa z reaktorami typu PWR (EPR i AP 1000) oraz jeden z reaktorem typu BWR (ESBWR). Wszystkie zapewniają wysoki poziom bezpieczeństwa jądrowego. Podstawowe cechy bezpieczeństwa reaktora EPR Reaktor EPR (european pressurized reactor) reprezentuje tzw. "linię ewolucyjną" rozwoju reaktorów energetycznych, jego rozwiązania projektowe wywodzą się z 40-letnich doświadczeń w konstrukcji i eksploatacji francuskich i niemieckich reaktorów wodnociśnieniowych, a zwłaszcza ich najnowszych modeli: "N4" (firmy Framatome - obecnie AREVA) i "Konvoi" (firmy Siemens). Moc elektryczna netto jądrowego bloku energetycznego z reaktorem EPR wynosi ok. 1600 MWe. Zastosowano w nim wiele rozwiązań zapewniających bezpieczeństwo nie tylko przy normalnej eksploatacji i podczas awarii projektowych, ale i w razie akcji terrorystycznych, a także zabezpieczających przed uszkodzeniem obudowy bezpieczeństwa w przypadku ciężkich awarii związanych ze stopieniem rdzenia reaktora. Główne cechy bezpieczeństwa reaktora EPR schematycznie przedstawiono na rys. 17, są to: - dwupowłokowa obudowa bezpieczeństwa z układami wentylacji przestrzeni pomiędzy dwiema powłokami, - strefa rozpływu stopionego rdzenia (tzw. łapacz rdzenia), zabezpieczająca obudowę bezpieczeństwa przed uszkodzeniem w razie przetopienia zbiornika reaktora przez stopiony rdzeń, - układy bezpieczeństwa o poczwórnej redundancji, - układ chłodzenia (zraszania) obudowy bezpieczeństwa o podwójnej redundancji, - duży zbiornik wodny w obudowie bezpieczeństwa (zapas wody służący do przeładunku paliwa i dla układów bezpieczeństwa). Rozwiązania projektowe zastosowane w EPR zapewniają: ● Praktyczne wykluczenie sytuacji mogących skutkować dużymi wczesnymi uwolnieniami substancji promieniotwórczych do środowiska, jak: ... więcej»

Silniki klatkowe do długich lub często powtarzanych rozruchów, załączane bezpośrednio na sieć (Maciej Bernatt)
Rozruch silnika klatkowego średniej lub dużej mocy, realizowany przez bezpośrednie załączenie na pełne napięcie sieci jest okresem największych narażeń podczas całej eksploatacji [5]. Współczesne zakłady przemysłowe mają zwykle sieci o wystarczająco dużej mocy zwarciowej, pozwalającej na rozruch bezpośredni. Szacuje się, że prawidłowo zaprojektowany i poprawnie wykonany silnik klatkowy średniej i dużej mocy w wersji standardowej znosić powinien do 5000 rozruchów bezpośrednich. Taką trwałość swych wyrobów deklaruje obecnie większość znanych producentów maszyn elektrycznych. Do eksploatacji przy wielkiej liczbie załączeń lub przy rozruchach długotrwałych (powyżej 30 s) zamiast silników standardowych należy stosować ich wersje specjalne, przystosowane już na etapie projektowania do określonych warunków rozruchowych. Z przepływem prądu rozruchowego, którego natężenie w stanie ustalonym jest kilkakrotnie większe od natężenia przy obciążeniu znamionowym związane są efekty termiczne i efekty dynamiczne działające niszcząco na strukturę silnika [1, 2]. Przepływ prądu rozruchowego oddziałuje na uzwojenie stojana i uzwojenie (klatkę) wirnika. Termiczne efekty przepływu prądu (prędkość narastania temperatury w uzwojeniu) proporcjonalne są do drugiej potęgi gęstości prądu. W wirnikach silników klatkowych wyst... więcej»

Pożary spowodowane wyładowaniami piorunowymi (Jarosław Wiater)
W Polsce obecnie funkcjonują dwa systemy lokalizacji wyładowań piorunowych. Operatorem pierwszego z nich, systemu PERUN (SAFIR), jest Instytut Meteorologii i Gospodarki Wodnej w Warszawie. Operatorem drugiego systemu LINET (skrót od ang. lightning location network) jest Uniwersytet w Monachium. System składa się z 11 stacji bazowych rozmieszczonych na terenie Polski. W naszym kraju stacje obserwacyjne zostały umieszczone na terenie Politechniki Warszawskiej, Rzeszowskiej, Gdańskiej i Białostockiej (rys. 1). Dokładność prowadzonych pomiarów wynosi nie mniej niż 200 m, przy skuteczności wykrywania na poziomie 90%. Współpracujące ośrodki naukowe wzajemnie wymieniają informacje i współpracują w celu poprawy funkcjonowania systemu. Na zasadach komercyjnych dane z rejestratorów udostępniane są przez stronę interneto... więcej»

Czy burze magnetyczne są groźne dla krajowej elektroenergetyki? Cz. II (Adam Klimpel, Krzysztof Lipko)
Podstawowym problemem, stwarzanym przez GIC, jest ich wpływ na transformatory elektroenergetyczne dużej mocy. W normalnych warunkach transformatory stanowią efektywne urządzenia umożliwiające transformację napięcia z danego poziomu na inne poziomy. Wieloletnie doświadczenia w konstrukcji urządzeń doprowadziły do tak efektywnych rozwiązań, że wystarczy zaledwie kilka amperów prądu wzbudzenia AC, aby wzbudzić strumień zapewniający transformację napięć. Wpływ GIC na transformatory Prąd GIC płynący przez transformator (rys. 6) ma charakter składowej stałej. W przewodzie zerowym transformatora prądy te sumują się, dając wartość trzykrotnie większą od fazowej. Składowa pochodząca od GIC podpolaryzowuje prąd magnetyzujący i jeśli w danym półokresie składowa zmienna ma ten sam kierunek, to suma prądów powoduje nasycenie się rdzenia. W sytuacji występowania GIC dla samego transformatora zachodzą trzy główne zagrożenia: - zwiększony pobór mocy biernej, - zwiększony poziom harmonicznych parzystych i nieparzystych generowanych w półokresowym nasyceniu, - prawdopodobieństwo przegrzania transformatora powodowane głównie występowaniem strumienia rozproszenia. Strumień magnetyczny zostaje rozproszony. Zamyka się przez olej, powietrze, kadź transformatora. Transformator na skutek prądów wirowych ulega przegrzaniu i - jeśli nie zostanie w porę wyłączony - może ulec uszkodzeniu. Następuje wzrost poboru mocy biernej przez transformator. Harmoniczne generowane przez transformator przepływają liniami przesyłowymi i mogą wywołać błędne działanie zabezpieczeń. Zbędne działania zabezpieczeń powodują wyłączenie elementów sieciowych, co z kolei zmniejsza moc zwarcia w danym węźle. Przy równoczesnym wzroście poboru mocy biernej w węzłach może się to przyczynić do utraty stabilności napięciowej i w konsekwencji do rozległej awarii systemowej. Właśnie taki przebieg miała awaria w Kanadzie w 1989 r. Zmianom wartości GIC towarzyszą proporcjonalne zmiany... więcej»

Zobacz wszystkie publikacje »

2012-5

zeszyt-3306-wiadomosci-elektrotechniczne-2012-5.html

 
W numerze m.in.:
Analiza asymetrii napięć w terenowych sieciach elektroenergetycznych średniego napięcia (Ryszard Skliński, Grzegorz Hołdyński, Zbigniew Skibko)
W obliczeniach sieci elektroenergetycznych przyjmuje się zazwyczaj założenie symetrii impedancji wzdłużnych oraz symetrii prądów odbiorów i napięć zasilających. Przyjęcie tego założenia w znacznym stopniu ułatwia wykonanie obliczeń. Jednak w rzeczywistości uzyskanie całkowitej symetrii napięć we wszystkich węzłach systemu elektroenergetycznego w stanach normalnych nie jest w praktyce możliwe z uwagi na niesymetryczne odbiory, a przede wszystkim odbiorniki 1-fazowe, występujące głównie w sieciach niskiego napięcia. Powodują one przepływ niejednakowych prądów fazowych (asymetria prądów) przez sieć elektroenergetyczną i powstawanie na elementach tej sieci niesymetrycznych strat napięcia. Konsekwencją tego jest utrata symetrii napięcia w węzłach sieci - czyli asymetria napięć. Asymetria napięć Asymetrią napięć nazywa się stan, w którym spełniony jest przynajmniej jeden z warunków: wartości napięć fazowych nie są sobie równe, kąty między kolejnymi napięciami fazowymi także nie są sobie równe (120o). Niesymetryczne układy napięć lub prądów można analizować rozkładając je na składowe układy symetryczne: zgodny, przeciwny i zerowy. Składowe układy symetryczne w literaturze dość często nazywa się skrótowo składowymi symetrycznymi. Oznaczając wielkości fazowe napięć w układzie trójfazowym odpowiednio UA, UB, UC, otrzymuje się równania umożliwiające obliczenie składowych symetrycznych układu trójfazowego [1]: (1) gdzie: U 0, U1, U2 - składowe symetryczne kolejności zerowej, zgodnej i przeciwnej, UA, UB, UC - wielkości fazowe napięcia, a - operator obrotu opisany równaniem: ... więcej»

Monitoring pracy linii 110 kV na przykładzie PGE Dystrybucja SA Oddział Białystok (Grzegorz Dąbrowski, Zygmunt Soroka, Krzysztof Woliński)
Szybki rozwój źródeł energii odnawialnej w kraju spowodował zmianę w podejściu do bezpiecznego i pełnego wykorzystania zdolności przesyłowych linii elektroenergetycznych. Terenowa infrastruktura sieci przesyłowej i dystrybucyjnej nie zawsze jest zdolna do przesyłu mocy wytworzonych w nowych źródłach, które powstają na terenach, gdzie są odpowiednie warunki, np. energia wiatru na terenie Polski (rys. 1). Polska, realizując dyrektywę Unii Europejskiej, zobowiązała się do roku 2020 wytwarzać 15% energii elektrycznej w źródłach odnawialnych [1]. W Polsce zainstalowanych jest ponad 1800 MW mocy w elektrowniach wiatrowych. W 2011 r. przybyło 890 MW w tych elektrowniach [10]. Na terenie PGE Dystrybucja SA Oddział Białystok do sieci dystrybucyjnej średniego napięcia przyłączonych jest 16 elektrowni wiatrowych o łącznej mocy 18 MW. Do sieci 110 kV przyłączone są obecnie 4 parki wiatrowe o mocach: Park Wiatrowy Suwałki (Potasznia) - 41,4 MW, Piecki - 32 MW, Wronki - 48 MW, Taciewo - 30 MW. W tym regionie moc zainstalowana w energetyce wiatrowej wynosi 169,4 MW [3, 4]. W PGE Dystrybucja SA Oddział Białystok sumaryczna moc przyłączeniowa dla sieci 110 kV, obliczona na podstawie wydanych warunków przyłączenia elektrowni wiatrowych wynosi 311,5 MW. Wykonane ekspertyzy dotyczą mocy 35,2 MW. W sieci średniego napięcia warunki przyłączeniowe wydano dla 37 elektrowni wiatrowych o łącznej mocy 85 MW. Głównym obszarem zainteresowania inwestorów farm wiatrowych jest północna część województwa podlaskiego i warmińskomazurskiego. Zapotrzebowanie na moc szczytową obszaru szacowane jest na 170 MW [4]. Obecnie na terenie Oddziału Białystok pracują 4 parki wiatrowe przyłączone do ciągu liniowego 110 kV Hańcza - Filipów - Węgorzewo - Giżycko. Przekrój przewodów roboczych na tym ciągu wynosi 240 mm2. Pobór mocy przez odbiorców na tym obszarze wynosi w szczycie rannym ok. 30 MW. Stacja Hańcza połączona jest z systemem elektroenergetycznym ciągiem liniow... więcej»

Liczby to nie wszystko (Adam Gawłowski)
W 2011 r. zakład produkcji urządzeń ELEKTROBUDOWA SA w Koninie wyprodukował 2557 pól SN, 1381 segmentów nN, 84 stacje kontenerowe oraz 878 m bieżących szynoprzewodów nN. Jednak nie statystyka jest dla nas najważniejsza, pozycję lidera na polskim rynku zawdzięczamy głównie naszym klientom. Od kilku lat obserwujemy liberalizację polskiego rynku elektroenergetycznego, spowodowaną głównie wprowadzeniem ustawy o zamówieniach publicznych, która gwarantuje pełną konkurencyjność w tym sektorze. Wydawać by się mogło, że spowoduje to wybór tańszych rozwiązań kosztem sprawdzonych i przetestowanych marek i znanych producentów. W pierwszych latach rzeczywiście można było zauważyć ten trend, jednak ostatnio po fatalnych doświadczeniach związanych z wyborem tańszych urządzeń i wykonawców, inwestorzy wracają do sprawdzonych rozwiązań. Nie spełnił się scenariusz kreślony przez specjalistów, że rynek ulegnie całkowitemu "przemeblowaniu" i najważniejszym wskaźnikiem dla oferowanych wyrobów i usług pozostanie tylko cena. Patrząc na specyfikę realizacji obiektów elektroenergetycznych, uleganie fałszywemu przekonaniu, że cena jest jedynym kryterium, patrzenie na inwestycje jako "tu i teraz", nie w perspektywie kilkudziesięciu następnych lat, mogło doprowadzić do wielu awarii i niebezpieczeństwa dla pracujących tam ludzi. Widać także coraz wyraźniej, szczególnie w dużych spółkach energetyki zawodowej i dystrybucyjnej, trend do preferowania urządzeń produkowanych w polskich zakładach. Jeszcze kilka lat temu zachodnie koncerny były bardziej konkurencyjne niż ro... więcej»

Niekonwencjonalny odzysk energii - prąd z wodociągów
Iwanow А., Kotieleniec N.: Wykorzystanie nadmiernego ciśnienia w scentralizowanych układach ciepłowniczych do produkcji energii elektrycznej (Ispolzowanije izbytocznowo dawlienija w sistiemach centralizowannowo tiepłosnabżenija dla proizwodstwa elektriczeskoj eniergii). "Eniergobiezopasnost" i Eniergosbierieżenie" 3/2009. Opracował - Piotr Olszowiec. Ważnym, lecz wciąż niedocenianym sposobem poprawy bilansu energetycznego jest wykorzystywanie strumieni bezpowrotnie traconej energii. Jednym z rozwiązań może być odbiór rozpraszanej energii, jej konwersja i zwrot do sieci elektrycznej. Przykładem udanej realizacji tego podejścia jest utylizacja nadmiaru energii hydrokinetycznej sprężonych mediów, a zwłaszcza wody. Przy transporcie wody użytkowej lub ciepłowniczej na początku rurociągu wymuszane jest ciśnienie robocze o wartości niezbędnej do pokonania oporów przepływu czynnika do ... więcej»

Automatyczna kompensacja prądów ziemnozwarciowych w sieciach SN (Bogusław Zębik)
Sieci średniego napięcia są jednym z podstawowych ogniw łańcucha przesyłu energii elektrycznej. Poza rolą przesyłową pełnią również ważną funkcję jako bufor bezpieczeństwa między sieciami wysokiego napięcia i sieciami niskich napięć. Najczęściej spotykane w naszym kraju są sieci średniego napięcia z punktem zerowym transformatora uziemionym przez dławik (cewkę Petersena) - czyli tzw. sieci skompensowane. Kompensacja, ogólnie według słownika jest zjawiskiem równoważenia jednego działania lub wielkości innym działaniem albo wielkością. W tym przypadku chodzi o równoważenie występującej podczas zwarcia doziemnego składowej pojemnościowej prądu zwarcia odpowiednio dobraną co do wartości składową prądu indukcyjnego. Generuje ją dławik włączony między punkt zerowy transformatora a ziemię. Warunkiem fizycznym skutecznej kompensacji jest to, iż wartość indukcyjności dławika musi być dostosowana do warunków panujących w sieci, czyli - żeby dobrze skompensować, trzeba odpowiednio dostroić dławik. Warunkiem technicznym skutecznej kompensacji jest możliwość elastycznego monitorowania wartości parametrów ziemnozwarciowych i dostosowania ustawienia dławika do ich bieżącej wartości, czyli - żeby odpowiednio dostroić, trzeba odpowiednio często i dokładnie mierzyć parametry doziemne sieci. Metody określania parametrów ziemnozwarciowych skompensowanych sieci SN Do określania parametrów ziemnozwarciowych w skompensowanych sieciach SN stosuje się obecnie cztery metody. Metoda analityczna polega na ustawieniu nastaw dławika według obliczeniowych wartości prądów ziemnozwarciowych sieci. W metodzie rzeczywiste... więcej»

Zobacz wszystkie publikacje »

2012-4

zeszyt-3276-wiadomosci-elektrotechniczne-2012-4.html

 
W numerze m.in.:
Impedancja udarowa urządzeń powszechnego użytku (Jarosław Wiater)
Impedancja urządzeń powszechnego użytku mierzona w warunkach statycznych zdecydowanie różni się od impedancji tego samego urządzenia w warunkach dynamicznych. Duża szybkość narastania prądów udarowych powoduje wzrost wartości impedancji. W artykule zaprezentowano wyniki pomiarów impedancji udarowej urządzeń takich jak: wiertarka o mocy 750 W, odbiornik telewizyjny, odbiornik radiowy, żarówka o mocy 100 W, odbiornik telewizji satelitarnej, drukarka laserowa, stacjonarny komputer osobisty. Pomiary zostały przeprowadzone podczas normalnej pracy badanych urządzeń. Udar napięciowo-prądowy (1,2/50-8/20 μs) wprowadzano do instalacji elektrycznej podczas wykonywania pomiarów. W dobie rosnącego uzależnienia od energii elektrycznej istotnym czynnikiem staje się jej jakość. Wymusza to w sposób naturalny konieczność pomiaru, rejestracji i sygnalizacji zaburzeń. Od kilkudziesięciu lat są podejmowane próby oceny występującego zagrożenia urządzeń elektronicznych powszechnego użytku podczas bezpośrednich wyładowań piorunowych w różnorodne obiekty budowlane. Kluczowe w tej analizie są informacje niezbędne do matematycznego odwzorowania impedancji udarowych przyłączy zasilania analizowanych urządzeń. Dotychczas bazowano na modelach składających się tylko z elementów biernych. Impedancja urządzeń powszechnego użytku mierzona w warunkach statycznych zdecydowanie różni się od impedancji tego samego urządzenia przy wymuszeniu w postaci udaru napięciowo-prądowego. Duża szyb... więcej»

Bezpieczeństwo elektrowni jądrowych z reaktorami III generacji oferowanych Polsce Część II. Wymagania bezpieczeństwa dla reaktorów III generacji (Władysław Kiełbasa)
Jądrowe bloki energetyczne z reaktorami III generacji oprócz tego, że charakteryzują się istotnie lepszymi osiągami eksploatacyjnymi i charakterystykami ekonomicznymi, lepszym wykorzystaniem paliwa i mniejszą ilością wytwarzanych odpadów promieniotwórczych - przede wszystkim są znacznie bezpieczniejsze od poprzedniej generacji. Wynika to z zasadniczej zmiany założeń do projektowania oraz znacznego zaostrzenia kryteriów bezpieczeństwa stawianych projektom elektrowni jądrowych III generacji. Elektrownie jądrowe II generacji projektowano na tzw. maksymalną awarię projektową (MAP), zakładając że większa awaria (prowadząca do znacznego uszkodzenia rdzenia reaktora wskutek niesprawności wszystkich układów bezpieczeństwa) jest na tyle mało prawdopodobna, iż ryzyko z nią związane jest akceptowalne. Tak więc układy bezpieczeństwa - a zwłaszcza obudowę bezpieczeństwa reaktora - projektowano wówczas uwzględniając tylko MAP i nie zakładając znaczącej degradacji rdzenia - w tym jego stopienia. Natomiast, przy projektowaniu elektrowni jądrowych III generacji zakłada się tzw. rozszerzone warunki projektowe, zgodnie z którymi wymaga się uwzględnienia i ograniczenia skutków radiologicznych - także ciężkich awarii, włączając te prowadzące do całkowitego stopienia rdzenia reaktora. Takie właśnie wymagania zostały określone w tzw. dokumencie "EUR" "Wymagania europejskich przedsiębiorstw energetycznych dla EJ z reaktorami lekkowodnymi" (European utility requirements for LWR nuclear power plants), opracowanym przez europejski przemysł energetyczny. Zgodnie z wymaganiami tego dokumentu zastosowane w elektrowni jądrowej środki techni... więcej»

Wymagania podtrzymania pracy jednostek wytwórczych w warunkach podnapięciowych (Edward Ziaja, Bartłomiej Wycech, Tomasz Sikorski)
Polski system elektroenergetyczny pracuje w ramach europejskiej sieci operatorów elektroenergetycznych systemów przesyłowych ENTSO-E (European Network of Transmission System Operators for Electricity), którego członkiem z szóstą siłą głosu, spośród 41 operatorów z 34 krajów, jest PSE Operator SA. Organizacja skonsolidowała dotychczasowe struktury ETSO (European Transmission System Operators) i UCTE (Union for the Coordination of the Transmission of Electricity) oraz regionalne stowarzyszenia operatorskie krajów skandynawskich, bałtyckich, Wielkiej Brytanii i Irlandii. ENTSO-E jako organizacja zrzeszająca operatorów elektroenergetycznych systemów przesyłowych współdziała z agencją współpracy urzędów regulacji energetyki ACER (Agency for the Cooperation of Energy Regulators). Główne zadania ENTSO-E skupiają się wokół niezawodnej pracy systemów wchodzących w skład organizacji, optymalnego rozwoju połączonego systemu przesyłowego oraz kwestii bezpieczeństwa [1-4]. Rozwój prac nad wprowadzeniem kodów sieciowych ENTSO-E W obszarze rozwoju systemu podjęto prace nad stworzeniem kodeksu sieciowego ENTSO-E w zakresie przyłączania jednostek wytwórczych do sieci elektroenergetycznej. Prace rozpoczęły się w 2010 r. po wydaniu przez ERGEG (European Regulators Group for Electricity and Gas) założeń do zasad przyłączania do sieci elektroenergetycznej "Pilot Framework Guidelines on Electricity Grid Connection Guideline" [5]. ENTSO-E przystąpiło do prac nad tym dokumentem, które zaowocowały pierwszą wersją dokumentu wydanego w 2010 r. pod nazwą "Pilot Network code for requirements for Grid Connection Applicable to all Generators" [6] oraz dodatkowym opracowaniem poświęconym zagadnieniom stabilności systemowej "Technical background and recommendation for defence plans in the Continental Europe synchronous area" [7]. Jednocześnie w marcu 2011 r. Komisja Europejska podjęła decyzję o przejęciu przez ACER zakresu działalności ERGEG, a ENTSO-E otrz... więcej»

VII Lubuska Konferencja Naukowo-Techniczna Innowacyjne Materiały i Technologie w Elektrotechnice i-MITEL 2012 Nauka dla przemysłu - Przemysł dla nauki (Franciszek Narkun, Edward Cadler)
Siódmy raz Oddział Gorzowski Stowarzyszenia Elektryków Polskich wspólnie z Instytutem Inżynierii Elektrycznej Uniwersytetu Zielonogórskiego, przy współudziale: Wydziału Elektrycznego Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie, Instytutu Elektrotechniki, ENEA Operator Sp. z o.o. - Sponsor Główny, PTETiS Oddział w Szczecinie i Zielonej Górze organizuje Konferencję i-MITEL 2012. Konferencja odbędzie się w dniach 18-20 kwietnia 2012 r. w Przyłęsku i obejmie całokształt zagadnień związanych z innowacyjnymi materiałami i technologiami elektrotechnicznymi, w tym również z jakością zasilania urządzeń elektroenergetycznych, przetwarzaniem i przesyłaniem energii elektrycznej, i... więcej»

"Złoty Inżynier 2011" (Ewa Micyk)
Bez kultury technicznej nie byłoby nowoczesnej Polski - tymi słowami redaktor naczelna Przeglądu Technicznego i prezes Zarządu Głównego FSNT-NOT Ewa Mańkiewicz-Cudny powitała 2 marca 2012 r. gości zebranych na gali "Złoty Inżynier 2011". Podczas słowa wstępnego prezes Mańkiewicz-Cudny przypomniała krótko początki konkursu, którego pierwsza edycja odbyła się w roku 1994, a także podkreśliła rolę inżynierów w rozwoju gospodarczym kraju oraz budowaniu stosunków społecznych. Wśród zebranych gości byli m.in.: sekretarz stanu w kancelarii prezydenta RP - Olgierd Dziekański (który odczytał list gratulacyjny od prezydenta Bronisława Komorowskiego), podsekretarz sta... więcej»

Zobacz wszystkie publikacje »

2012-3

zeszyt-3238-wiadomosci-elektrotechniczne-2012-3.html

 
W numerze m.in.:
WYDAWNICTWA
Wstęp do analizy błędu pomiarowego.John R. Taylor: Wstęp do analizy błędu pomiarowego. Z angielskiego tłumaczyli: Adam Babiński, Rafał Bożek. Wyd. II zm. Wydawnictwo Naukowe PWN, Warszawa 2011.W Przedmowie do wydania drugiego czytamy: Napisałem podręcznik (…) ponieważ moje doświadczenia z prowadzenia zajęć na pierwszej pracowni przekonały mnie, że bardzo potrzebna jest książka będąca prawdziwym wprowadzeniem do tego przedmiotu dla początkujących studentów nauk przyrodniczych. (…) Pozytywne przyjęcie pierwszego wydania potwierdziło potrzebę takiego podręcznika, jak również to, że cel został osiągnięty. Podręcznik jest adresowany do studentów fizyki, geologii, biologii, medycyny, nauk rolniczych i technicznych, a także uczniów szkół średnich o profilu matematyczno- przyrodniczym. Autor prezentuje następujące zagadnienia: Część I (wstępne rozważania o rachunku błędów, jak przedstawić niepewności pomiarowe i jak z nich korzystać, przenoszenie niepewności, analiza statystyczna niepewności przypadkowych, rozkł... więcej»

Problematyka obliczania wskaźnika migotania światła (Marta Bątkiewicz-Pantuła, Antoni Klajn)
Wskaźnik migotania światła określa wrażenie niestabilności postrzegania wzrokowego spowodowanego bodźcem świetlnym, którego luminancja lub rozkład widmowy podlega zmianom w czasie [1, 2, 4, 9]. Zjawisko migotania światła jest więc bezpośrednio związane z negatywnym odczuciem systemu wzrokowego człowieka, co w zależności od cech psychofizycznych różnych osób może w konsekwencji prowadzić do rozdrażnienia bądź irytacji, spowodowanej powtarzającymi się zmianami luminancji źródła światła. Bezpośrednią przyczyną zjawiska migotania światła są zmiany napięcia zasilającego, a szczególnie zmiany cykliczne czyli fluktuacje. Wskaźnik migotania światła jest więc mierzony przy wykorzystaniu analizy zmian napięcia, a nie jak mogłaby sugerować jego nazwa, na podstawie pomiaru zmian natężenia oświetlenia. Dlatego może on być określany dla wszystkich poziomów napięcia zasilającego, z napięciem średnim i wysokim włącznie. Wskaźnik migotania światła jest określany na podstawie dwóch składników, czyli wskaźnika krótkookresowego migotania światła Pst oraz wskaźnika długookresowego migotania światła Plt , obliczanego z zależności [9] (1) Wskaźnik krótkookresowego migotania światła Pst jest obliczany przez współczesne rejestratory jakości energii wykorzystując pomiar zmian chwilowej wartości napięcia, z uwzględnieniem określonej procedury obliczeniowej [1]. Ogólna postać tej procedury polega na rejestrowaniu kolejno następujących po sobie względnych zmian napięcia ΔU/Un w określonym przedziale czasu, zwykle 1 minuty lub 10 minut i odniesieniu ich do największej wartości tych zmian (ΔU/Un) maksymalnych w tym przedziale czasu [4] (2) gdzie: ΔU - wartość skuteczna zmian napięcia,... więcej»

PSS SINCAL - oprogramowanie modelowania i symulacji pracy sieci
Aplikację budowy modelu i symulacji pracy sieci PSS®SINCAL (Siemens Network Calculation - obliczenia sieciowe Siemensa) opracowano do celów analizy sieci elektroenergetycznych i rurociągowych oraz do wizualizacji i dokumentowania rezultatów symulacji. Oprogramowanie PSS®SINCAL jest dobrze dostosowane do potrzeb zarówno firm branżowych (elektroenergetyka zawodowa) oraz firm użyteczności publicznej (dostawcy mediów), firm dystrybucyjnych i przesyłowych, operatorów zakładów przemysłowych i elektrowni, jak również firm inżynieryjnych i konsultingowych. Oprogramowanie PSS®SINCAL zapewnia wysoko wydajne narzędzia medelowania, symulacji i projektowania sieci zasilających dla wszystkich głównych sieci infrastrukturalnych: elektroenergetycznych, gazowych, wodnych i ciepłowniczych. Z tego też względu jest wyjątkowo przydatne dla wielobranżowych firm użyteczności publicznej, obsługujących infrastrukturę zróżnicowanych mediów. PSS®SINCAL wspomaga sprawne i ekonomiczne planowanie i eksploatację wzajemnie zależnej infrastruktury sieciowej, wykorzystując synergię wynikającą z używania tego samego interfejsu użytkownika i systemów przetwarzania i wymiany danych dla różnych infrastruktur. Profesjonalne budowanie modelu... więcej»

Układy przesyłu energii elektrycznej za pomocą jednego przewodu
Chapman N.: When one wire is enough. Transmission&Distribution World 4/2001. Opracował - Piotr Olszowiec. Do zasilania odległych, jednofazowych odbiorców jednoprzewodowe układy przesyłu energii elektrycznej SWER (single wire earth return - jednoprzewodowa linia z ziemią jako torem powrotnym) stanowią atrakcyjną alternatywę dla tradycyjnych trójfazowych sieci rozdzielczych średniego napięcia (SN). Analiza ekonomiczna wykazuje oszczędność tego rozwiązania tam, gdzie drugi przewód 1-fazowej linii kosztowałby więcej niż transformator separacyjny i są zwiększone straty energii. Już w końcu XIX w. Tesla zademonstrował, że do przesyłu energii elektrycznej wystarczy jeden przewód, podczas gdy funkcję przewodu powrotnego może spełniać ziemia. Technologię SWER opracował i wdrożył po raz pierwszy Lloyd Mandeno do elektryfikacji rolnictwa Nowej Zelandii w 1925 r. Do tej pory w Australii i Nowej Zelandii zbudowano ponad 200 tys. km tych linii przesyłowych SN. Z czasem układy SWER zostały przeniesione również do niektórych krajów w Afryce, a także Brazylii, Indii, Kanady i USA (Alaska). Budowa jednoprzewodowych linii rozdzielczych SN W australijskich liniach SWER (rys. 1) energia jest dostarczana przez transformator separacyjny o mocy do 300 kVA i przekładni napięciowej najczęściej 22/19 kV. Linia składa się z jednego przewodu i może rozciągać się nawet na 200 km, a więc długość niespotykaną dla konwencjonalnych sieci promieniowych SN. Wzdłuż trasy linii przyłączeni są rozproszeni odbiorcy, którzy pobierają moc przez transformatory dystrybucyjne (obniżające napięcie w stosunku 19/0,24/0,24 kV). Sieć złożoną z linii SWER pokazano na rysunku 3. Najdłuższe z tych ciągów zasilają do 80 transformatorów dystrybucyjnych o znormalizowanych mocach 5, 10 i 25... więcej»

Weryfikacja nastawień zabezpieczeń od utraty wzbudzenia na przykładzie elektrociepłowni przemysłowej (Jacek Klucznik, Zbigniew Lubośny)
W artykule przedstawiono rozważania dotyczące działania zabezpieczeń reaktancyjnych od utraty wzbudzenia generatorów synchronicznych, pracujących w elektrociepłowni przemysłowej. Pokazano możliwości niewłaściwego działania zabezpieczenia od utraty wzbudzenia, wskazując że dobór nastawień powinien każdorazowo wykorzystywać badania modelowe. Przyjmowanie nastawień typowych zgodnych z wiedzą inżynierską może być przyczyną niewłaściwego działania tego typu zabezpieczeń, prowadząc w najgorszym przypadku do pracy asynchronicznej generatorów, w sytuacji gdy generatory w obiektach przemysłowych rozważanego typu nie są wyposażane w zabezpieczenia od poślizgu biegunów. Przedmiotem rozważań zawartych w artykule jest zakład przemysłowy, którego rozdzielnię główną SN (6 kV) oraz powiązanie z systemem elektroenergetycznym WN (110 kV) przedstawiono na rysunku 1. Rozdzielnia SN zakładu powiązana jest z siecią WN za TG1: Ur = 0,74·Un, tp = 2 s, X1 = 0 Ω, X2 = -9,52 Ω, X3 = -150 Ω, tpn = 2 s, tw = 8 s. TG2: Ur = 0,7·Un, tp = 2 s, X1 = 0 Ω, X2 = -1,2 Ω, X3 = -25,2 Ω, tpn = 2 s, tw = 8 s. Działanie zabezpieczenia jest następujące: podstawą jest człon impedancyjny (40) określający, czy mierzona na podstawie pomiaru prądu i napięcia generatora impedancja, znajduje się w strefie działania, tj. w obszarze określonym przez okrąg i prostą (rys. 2). Jeżeli zmierzony wektor impedancji znajdzie się w obszarze określonym przez chara... więcej»

Zobacz wszystkie publikacje »

2012-2

zeszyt-3212-wiadomosci-elektrotechniczne-2012-2.html

 
W numerze m.in.:
Współpraca małych źródeł energii z systemem elektroenergetycznym – doświadczenia pomiarowe (Tomasz Sikorski)
Generacja rozproszona (distributed generation, dispersed generation DG lub distributed resources DR) stanowi obecnie jedną z najbardziej aktywnie rozwijanych gałęzi energetyki, głównie dzięki ekologicznym technologiom wytwarzania energii oraz idei inteligentnych sieci elektroenergetycznych. Choć nie jest to pojęcie nowe, brakuje wciąż usystematyzowanej definicji pozwalającej w jednoznaczny sposób dokonać klasyfikacji źródeł wytwarzania według określenia generacja rozproszona. Głównym problemem jest tu przyjęcie kryterium, którym może być zarówno wielkość mocy zainstalowanej jak i przyłączenie do sieci przesyłowej bądź dystrybucyjnej, podleganie centralnej dyspozycji mocy czy wreszcie rodzaj zastosowanych technologii. Jedna z najczęściej cytowanych definicji wykorzystuje raport Grupy Roboczej 37.23 CIGRE, która za źródła rozproszone proponuje traktować jednostki niepodległe centralnemu dysponowaniu mocą oraz niezależne od scentralizowanego planowania rozwoju systemu, jednocześnie wprowadzając ograniczenie mocy do wartości 50-100 MW. Dla porównania graniczna moc źródeł rozproszonych w Wielkiej Brytanii została ustalona na poziomie 100 MW, w Stanach Zjednoczonych - 50 MW, w Nowej Zelandii - 5 MW, w Szwecji - 1,5 MW. Polskie Prawo energetyczne wprowadza wartość 5 MW jako mocy źródła, które nie wymaga uzyskania koncesji, w przypadku źródeł nie zaliczanych do odnawialnych źródeł energii, oraz w przypadku odnawialnych źródeł energii jako jednostek zwolnionych z opłat koncesyjnych. Warto jednak podkreślić, że wspomnianej wartości 5 MW nie należy traktować jako granicznej mocy dedykowanej generacji rozproszonej. Ostatnie prace CIGRE nad generacją rozproszoną prowadzone przez Komitet Studiów SC6 "Distribution Systems&Dispersed Generation" zaproponowały minimalizację definicji jednostek rozproszonych jako elementów wytwórczych przyłączonych do sieci dystrybucyjnej bądź zasilających bezpośrednio odbiorcę. Podejmując próbę unifikacji gene... więcej»

I Konferencja "Eksploatacja Sieci Elektroenergetycznych w PGE Dystrybucja S.A." (Krzysztof Woliński)
W dniach 8-9 grudnia 2011 r. w Nałęczowie odbyła się I Konferencja "Eksploatacja Sieci Elektroenergetycznych w PGE Dystrybucja S.A.", przygotowana przez Departament Sieci PGE Dystrybucja S.A. W spotkaniu uczestniczyło 80 osób, które reprezentowały służby techniczne wszystkich Oddziałów Spółki. Gośćmi konferencji byli przedstawiciele PGE Polska Grupa Energetyczna S.A.: Hanna Nowicka - dyrektor Departamentu Dystrybucji oraz Adam Łuniewski. Celem konferencji było zapoznanie kadry technicznej Oddziałów z problematyką aktualnie prowadzonych i planowanych prac oraz wymiana doświadczeń w zakresie szeroko rozumianej eksploatacji sieci dystrybucyjnej. Uczestników konferencji powitał oraz przedstawił program i tryb obrad dyrektor Departamen... więcej»

Nowoczesne algorytmy wyznaczania jakości energii (Aleksander Lisowiec)
Jednym z istotnych wskaźników jakości napięcia zasilającego jest zawartość harmonicznych i interharmonicznych. Normy EN 50160, EN 61000-4-7 i EN 61000-4-30 określają algorytmy wyznaczania wartości RMS oraz interharmonicznych przebiegu. Algorytmy te są niekompatybilne z pomiarami parametrów sygnałów prądowych i napięciowych do celów realizacji algorytmów zabezpieczeniowych. W przypadku gdy funkcje pomiaru jakości energii należy zaimplementować w urządzeniu zabezpieczeniowym, pojawia się niekompatybilność wymogów dotyczących algorytmów zabezpieczeniowych i wyznaczania jakości energii. W artykule przedstawiono nowoczesne algorytmy cyfrowej zmiany szybkości próbkowania w dziedzinie cyfrowej, które pozwalają zrealizować z tego samego ciągu próbek sygnału - funkcje pomiaru do celów zabezpieczeniowych jak również na potrzeby wyznaczenia wskaźników jakości energii zgodnie z wymienionymi normami. Międzynarodowe standardy dotyczące pomiaru jakości energii [1, 2] precyzyjnie definiują, które parametry sygnałów prądowych i napięciowych mają być mierzone oraz metody ich pomiaru w celu wyznaczenia wskaźników jakości energii. Zgodnie z wytycznymi analizatory jakości energii w celu prawidłowego wyznaczenia zawartości harmonicznych, stosują metodę synchronizacji częstotliwości próbkującej do wielokrotności częstotliwości podstawowej przebiegu mierzonego. Przedział pomiarowy jest równy dziesięciu okresom częstotliwości podstawowej sieci. Aby móc zastosować transformację FFT do wyznaczenia widma sygnału, liczba próbek na okres przedziału pomiarowego (który powinien być wielokrotnością okresu składowej podstawowej sygnału) musi być równa potędze liczby 2. W przypadku gdy częstotliwość próbkująca jest zsynchronizowana z wielokrotnością częstotliwości sieci, spełnienie tego warunku nie jest równocześnie możliwe dla okresu pomiaru równego jednemu okresowi częstotliwości sieci, gdy wyniki pomiarów są używane do po... więcej»

Generacja wiatrowa a jakość energii elektrycznej (Franciszek Głowacki, Henryk Koseda)
Wiatr należy do odnawialnych źródeł energii, którego światowy potencjał energetyczny szacuje się na poziomie mocy równej 40 TW (dla porównania potencjał śródlądowej energii wodnej szacowany jest na ok. 4 TW). Mimo iż człowiek wykorzystywał energię wiatru od najdawniejszych czasów (latawce, żaglowce, wiatraki) to zainteresowanie energią wiatru do celów energetycznych wyraźnie rozwinęło się dopiero po kryzysie paliwowym lat 70. ub.w. Przyjęcie przez niektóre państwa protokołu z Kioto o ograniczeniu emisji dwutlenku węgla skłoniło rządy i firmy do inwestowania w proekologiczne źródła energii odnawialnej, w tym w energetykę wiatrową i fotowoltaikę. Dyrektywy Unii Europejskiej i praktyczna realizacja mechanizmów wsparcia energetyki odnawialnej mimo wielu trudności zaowocowały wzrostem zainstalowanych w Polsce mocy energetyki wiatrowej z 725 MW w końcu 2009 r. do 1180 MW na koniec 2010 r. i 1489 MW we wrześniu 2011 r. Przyłączanie obiektów generacji wiatrowej do krajowego systemu elektroenergetycznego powoduje konieczność wykonania testów potwierdzających ich prawidłową współpracę z systemem dla różnych sytuacji ruchowych, jakie mogą wystąpić. Właściwości, jakie mają generatory napędzane turbinami wiatrowymi powodują konieczność przeprowadzenia testów nietypowych dla generacji konwencjonalnej. Znalazło to odzwierciedlenie w instrukcjach ruchu i eksploatacji sieci dystrybucyjnej oraz przesyłowej. W obu tych dokumentach poświęcono osobne rozdziały dotyczące wymagań stawianych energetyce wiatrowej oraz testów, jakie należy przeprowadzić po uruchomieniu obiektu. Testy te powinny dotyczyć m.in.: - zachowania się farm wiatrowych (FW) w czasie normalnej pracy oraz podczas programowych uruchomień i odstawień, - zdolności FW do prowadzenia regulacji mocy czynnej w czasie pracy interwencyjnej, - odpowiedniego reagowania FW w przypadku zmian częstotliwości w sieci, - zdolności FW do regulacji generacji mocy biernej przy różnych trybach pr... więcej»

Analiza pracy wybranych farm wiatrowych w Polsce Część II. Jakość energii elektrycznej (Krzysztof Chmielowiec, Andrzej Firlit, Krzysztof Piątek)
Wprowadzenie do systemu elektroenergetycznego (SEE) niespokojnych źródeł energii, do których z pewnością można zaliczyć farmy wiatrowe wiązać się może z pewnymi problemami lokalnymi oraz, przy odpowiednio dużym udziale farmy wiatrowej w całkowitej produkcji energii, z problemami rozważanymi w skali globalnej. Przyjmuje się, że wpływ lokalny można powiązać z oddziaływaniem konkretnej farmy wiatrowej i jest on niezależny od całkowitego udziału energetyki wiatrowej w SEE. Zalicza się do niego wahania amplitudy i częstotliwości napięcia (na skutek gwałtownego zwiększania lub zmniejszania produkcji energii, oscylacji konstrukcji wiatraka, efekt 3P, efekt 1P), a także odkształcenie napięcia wyższymi harmonicznymi. Z kolei w skali globalnej użytkowanie farm wiatrowych niesie za sobą problemy z utrzymaniem stabilności oraz dynamiki SEE, wprowadza większe wymagania dotyczące planowania bilansu mocy i energii oraz konieczność zwiększenia rezerw mocy w innych źródłach. W powszechnej opinii największy wpływ farm wiatrowych na jakość energii elektrycznej (JEE) odbywa się przez wywoływanie zmian wartości skutecznej napięcia lub wahań napięcia. Oba te problemy są związane ze stochastyczną produkcją energii. Cel opracowania Artykuł ma na celu ocenę jakości energii w punkcie przyłączenia do SEE wybranych farm wiatrowych. W przypadku farmy A podstawą oceny była roczna rejestracja wskaźników jakości energii. Analiza farmy B opiera się na rejestracjach przeprowadzonych na etapie projektowania farmy oraz po jej uruchomieniu i włączeniu do SEE. Analizowany okres wynosi 2 tygodnie i jest zdecydowanie krótszy niż w przypadku farmy A, jednak z punktu widzenia oceny jakości energii jest zgodny z wymaganiami zawartymi w obowiązujących przepisach (występują pełne tygodnie pomiarowe). Uzyskane dane były uśredniane w interwałach 10-minutowych. Pomiary były wykonywane rejestratorami parametrów jakości energii elektrycznej Fluke 1750 oraz Unilyzer 902. ... więcej»

Zobacz wszystkie publikacje »

2012-1

zeszyt-3181-wiadomosci-elektrotechniczne-2012-1.html

 
W numerze m.in.:
Zastosowanie kompozycji kolorystycznych w iluminacji obiektów architektonicznych (Marek Łasiński)
Obecnie możliwości techniczne opraw oświetleniowych pozwalają na nieograniczoną niczym - poza naszą fantazją - kreację nocnego wizerunku miasta. Obiekty ukryte w nocnym pejzażu aglomeracji stają się jego dominantami, obiekty pozbawione wartości architektonicznych i zaniedbane pozostają w jego cieniu. Już nie tylko rozświetlenie przestrzeni powoduje zmiany - zmiany potęguje wprowadzenie koloru. Akcenty kolorystyczne w iluminacji obiektów przemysłowych o charakterze zabytkowym Jednym z przykładów iluminacji obiektów przemysłowych, wykorzystujących kolor jako dodatkowe narzędzie twórcze, jest instalacja oświetlenia szybu wyciągowego dawnej kopalni "Prezydent" w Chorzowie, z unikatową w Polsce żelbetonową wieżą wyciągową. Szyb Prezydent znajduje się przy ul. Kościuszki. Powstał w 1933 r. Obiekt nazwę zyskał na cześć prezydenta Ignacego Mościckiego. Przestał pracować w 1996 r. Projektowana kompozycja zakładała wprowadzenie trzech zasadniczych części iluminacji. Każda z nich jest podyktowana funkcjonalanością obiektu. Zasadnicza bryła obiektu została podświetlona oprawami o białej barwie źródeł, zespół tych opraw został podzielony na oprawy o ciepłobiałej i zi... więcej»

Wyzwania dla energetyki
Owens D., Roques F., White A.: The Search for Certainty. Electric Perspectives (US) 2011. July/August. Opracował - Witold Bobrowski. Pomiędzy przemysłem energetycznym Stanów Zjednoczonych, Europy i Wielkiej Brytanii istnieje bardzo wiele różnic, ale problemy, przed jakimi stają zakłady energetyczne tych krajów - szczególnie jak inwestować, jak rozwijać się oraz jak radzić sobie z dylematami polityki rządowej - są zaskakująco podobne. W marcu 2011 r., podczas międzynarodowej konferencji w Instytucie Edisona w Londynie odbyło się spotkanie ... więcej»

Modelowanie warystorów niskonapięciowych instalowanych w sieci elektroenergetycznej niskiego napięcia (Tomasz Kuczyński)
W ostatnim okresie nastąpił gwałtowny rozwój komputerowych metod symulacji zjawisk zachodzących w sieciach elektroenergetycznych. Tworzone są różnorodne modele matematyczne elementów sieci elektroenergetycznej, w tym także urządzeń do ograniczania przepięć SPD (surge protection device). Dokładna analiza działania ochronnego warystorowych SPD jest trudnym zadaniem, gdyż w odwzorowywanym modelu numerycznym należy uwzględnić zarówno jego właściwości statyczne jak i dynamiczne [7, 9]. Wykorzystując silnie nieliniową charakterystykę napięciowoprądową możemy zamodelować właściwości statyczne warystora, natomiast znacznie trudniej jest uwzględnić jego właściwości dynamiczne. W ostatnich latach powstało dużo prac na temat właściwości ochronnych warystorów oraz zostały zaproponowane różnorodne modele do zastosowań w obliczeniach numerycznych zjawisk zachodzących w sieciach elektroenergetycznych średnich i wysokich napięć. Znacznie mniej publikacji dotyczy modelowania stanów nieustalonych w sieci elektroenergetycznej niskiego napięcia. Uwzględniając ten fakt, podjęto próbę porównania najczęściej stosowanych modeli matematycznych, warystorowych SPD stosowanych w instalacji elektrycznej w obiektach budowlanych. Modelowanie warystorów niskonapięciowych Do analizy działania ochronnego warystorowych urządzeń do ograniczania przepięć w sieci elektroenergetycznej niskiego ... więcej»

Rozwój fotografii - od chemii do elektroniki (Stefan Gierlotka)
Z początkiem X w. Arabowie wynaleźli przyrząd do odwzorowywania obrazów nazwany "camera obscura". Składał się wewnątrz z czarnej skrzynki, w której na tylnej ścianie była matowa szybka, a w ścianie przedniej znajdował się maleńki otwór. Wpadające z zewnątrz promienie światła tworzyły na matówce pomniejszony obraz obiektu, który przerysowywano. W 1665 r. Johann Zahn unowocześnił kamerę, wyposażając ją w zestaw soczewek o różnych ogniskowych oraz zabudował wewnątrz lustro pod kątem 45° dla odwracania obrazu do pozycji poziomej. Matówka umieszczona na górnej ścianie kamery ułatwiała przerysowywanie obrazu. Początki chemii fotograficznej W 1556 r. włoski alchemik Georg Fabricius zauważył ciemnienie chlorku srebra pod wpływem światła słonecznego. Niemiecki chemik Johann Heinrich Schulze w 1727 r. naświetlał na słońcu płytę pokrytą mieszaniną chlorku srebra z kredą. Otrzymał obraz pierwszej fotografii, której nie potrafił utrwalić. Szwedzki chemik Charles William Scheele w 1777 r. stwierdził, że poczerniały na świetle chlorek srebra jest zredukowanym metalicznym srebrem nierozpuszczalnym w wodzie, a nienaświetlony rozpuszcza się. Pierwszą trwałą fotografię wykonał w 1816 r. Francuz Joseph Nicephore Niepce, który spostrzegł, że cienka warstewka płynnego asfaltu syryjskiego na wypolerowanej płytce cynkowej po wystawieniu na światło twardnieje w miejscach naświetlonych, zaś w nienaświetlonych, nieutwardzony materiał zmywał się olejkiem lawendowym. Otrzymany negatyw pokrywano farbą litograficzną i odciskano na papierze tworząc wydruk. Technika ta nazwana heliografią, wymagała ośmiogodzinnej ekspozycji światłem słonecznym. W 1826 r. francuski malarz Louis Jacques Daguerre zaprzyjaźniony z Niepcem zaczął eksperymenty z fotografią. Miedzianą płytkę pokrył warstewką jodku srebra wrażliwego na światło. Po 12 godzinach naświetlania płytkę wywoływał w parach rtęci i utrwalał w kąpieli z cyjanku potasowego. Daguerre przedstawił powstawanie obra... więcej»

Wpływ wielkopowierzchniowych reklam z diodami świecącymi na bezpieczeństwo ruchu drogowego (Krzysztof Wandachowicz, Małgorzata Zalesińska, Konrad Domke, Sandra Mroczkowska, Przemysław Skrzypczak)
W ostatnich latach na całym świecie w reklamach zewnętrznych powszechnie stosuje się diody elektroluminescencyjne. Reklamy z diodami świecącymi charakteryzują się dużą powierzchnią, dużą luminancją i bardzo dynamiczną zmianą wyświetlanych obrazów. Reklamy instalowane w sąsiedztwie ulic stanowią potencjalne zagrożenie dla bezpieczeństwa ruchu drogowego. W artykule przedstawiono wymagania stawiane tego typu reklamom oraz wyniki pomiarów wybranych reklam znajdujących się na terenie Poznania. Wraz z rozwojem technologii diod świecących w naszych miastach pojawiły się wielkopowierzchniowe reklamy zbudowane z diod elektroluminescencyjnych. Kierowcy samochodów, autobusów i pojazdów szynowych skarżą się, że szczególnie wieczorem i w nocy bardzo jaskrawa powierzchnia reklam znajdujących się w ich polu widzenia powoduje dyskomfort i przeszkadza w realizacji normalnych zadań związanych z kierowaniem pojazdem. Reklamy instalowane w sąsiedztwie ulic stanowią potencjalne zagrożenie dla bezpieczeństwa ruchu drogowego. Zapisy obowiązujących norm dotyczących oświetlenia zewnętrznego i oświetlenia drogowego nie przedstawiają wymagań odnoszących się jednoznacznie do tego typu reklam. Nie uwzględnia się położenia reklamy względem obserwatora, jej wielkości kątowej, odległości od głównego kierunku obserwacji oraz dynamicznej zmiany luminancji związanej z wyświetlanymi obrazami. W artykule opisano wymagania stawiane tego typu reklamom, przyjęte przez samorządy lokalne oraz organizacje rządowe w państwach, w których problem reklam został już zauważony. Przedstawiono wyniki pomiarów parametrów fotometrycznych i geometrycznych wybranych reklam występujących na terenie Poznania [17]. Przegląd przepisów krajowych Normy oświetleniowe związane z oświetleniem miejsc pracy na zewnątrz [1] oraz z oświetleniem drogowym [2] nie uwzględniają wymagań dla wielkopowierzchniowych reklam z diodami świecącymi jako obiektów wpływających na bezpieczeństwo w ruchu ... więcej»

Zobacz wszystkie publikacje »

Czasowy dostęp

zegar Wykup czasowy dostęp do tego czasopisma.
Zobacz szczegóły»