Introduction
Electromagnetic brakes (EMBs) are most commonly
used in elevators, trains, lifting cranes, automotive industry,
mining and wind power plants for braking or stopping the
rotors of electrical machines.
Generally speaking electromagnetic brakes are
electrically activated but transmit torque mechanically [1].
The advantages of EMBs compared to conventional
mechanical brakes are:
 large braking torques,
 stable braking at high temperatures,
 fast response times (accurate engaging and clean
releasing),
 low noise and cheaper production.
Because of these advantages the number of
manufacturers and providers of EMBs on the market is
increasing.
According to the principle of operation we know
mechanical, hydraulic, air, vacuum and EMBs. The EMBs
can be further classified according to the principle of
operation or according to the type of a power source (AC or
DC). According to the principle of operation we know:
 steel spring EMBs,
 single or multiple disc EMBs,
 hysteresis EMBs,
 f particle EMBs and
 eddy current EMBs.
The principle of operation is similar for these types of
EMBs, they differ only in the way of creating the braking
torque [2].
This paper consequently presents a numerical analysis
of a DC EMB with steel springs. It consists of a [3]:
 magnetically nonlinear iron yoke,
= więcej » Czytaj za darmo! »
Linear electric machines are devices that directly
produce or exploit linear movement. They have become
commercially better known between years 1970 and 1980,
when there were huge efforts to build a MAGLEV train for
carrying passengers, which would be driven by linear
synchronous motors. Linear machines are used in many
other applications, as they have many good properties, such
as high accelerations and decelerations, high thrust forces,
high precision and reproducibility of the position [1].
Eric R. Laithwaite wrote that a linear electric machine is
easiest to imagine as a rotary machine, of which stator and
rotor are cut and unrolled in the plane [2]. Stator and rotor in
a rotary electric machine become primary and secondary in
a linear machine. Primary is the part of the machine which is
supplied with electric current. Secondary is the part of the
machine, with permanent magnet excitation system, a
squirrel cage or magnetic saliency.
All types of linear machines can have different
topologies. In general there are two different geometry
types; tubular and flat geometry type. Both geometries may
have a long or short secondary or primary. Flat linear
motors can be one-sided or double-sided [3].
Some most common applications where linear motors
are used are sliding doors, swing doors, elevators,
pneumatic hammers, electromagnetic pumps,
electromagnetic flow meters, automation and robotics [4].
Lineat motor topologies
The linear electric machine is represented as a rotary
machine, which has been cut and unrolled in a plane. The
rotor becomes the secondary; above it the unrolled stator
represents the primary. Such a structur więcej » Czytaj za darmo! »
Switched systems for purpose of nonlinear control have
been studied extensively in the two past decades and
useful results are now available, see e.g. [1], [2], [3], [4] and
[5]. As it was stated by several authors e.g. (Liberzon and
Morse in 1999, Hespana in 2004, Chen and Saif in 2004,
Colaneri in 2008,) the asymptotic stability can be ensured
when we switch slow enough between the subsystems,
more precisely the intervals between two consecutive
switchings -called dwell time-, are large enough. This
problem has been specially addressed in the synthesis of
switched state estimator of Luenberger type, e.g. (Prandini
in 2003, Chen and Saif in 2004) and it is also a crucial part
in our objective of the designing a switched linear 􀣢􀮶 fault
detection filter. In earlier researches different methods have
been proposed for determining the minimum dwell time, see
[4], [6], [7], [8], [9] and [10]. The most commonly used and
powerful algorithms, like e.g. the representation based on
Kronecker products (Geromel and Colaneri, 2006) or Logic-
Based Switching Algorithms (Hespana, 1998), are based on
multiple Lyapunov functions and expressed in form of linear
matrix inequalities (LMIs), see in [6], [7], [9], [10] and [11].
Since we deal with 􀣢􀮶 filtering, the basic Lyapunov
theorem needs to be extended to cope with performance
requirements such as the root mean square (RMS) property
of a switched system, which corresponds normally to
determining an upper bound of the minimum dwell time. To
this aim, in our research we consider a method used by
(Geromel and Colaneri, 2008) for 􀣢􀮶 nonlinear control and
we have adopted it to the classical 􀣢􀮶 detection filtering
problem, see in [12], [13], [14], [15] and [16]. More exactly,
the concept of the switched 􀣢􀮶 control in [7] can be
associated to the switched 􀣢􀮶 filtering problem by duality
and więcej » Czytaj za darmo! »
Identyfikacja anomalii w profilu glebowym w warunkach
produkcyjnych pomimo wielu zaawansowanych metod
pomiarowych nadal stanowi wyzwanie dla naukowców.
Szczególnie dotyczy to nieinwazyjnych metod, które mogą
być stosowane bez względu na stopień rozwoju roślin,
również te wykonywane ze statków powietrznych.
Wyodrębnienie obszarów na powierzchni pola jest bardzo
złożone i wymaga zaawansowanych środków technicznych
potrafiących realizować swoje funkcje w czasie
rzeczywistym. Uwzględnić należy wiele czynników a dużym
wyzwaniem jest jak największe uproszczenie wyznaczania
granic tych obszarów na podstawie jednego czynnika i
określenie jego korelacji ze zmiennością danego parametru
produkcyjnego [1]. Niektóre parametry gleby są zmienne w
czasie i przestrzeni i uchwycenie tej zmienności metodami
tradycyjnymi jest czasochłonne, pracochłonne i kosztowne.
Z tego powodu powstało wiele technologicznie
zaawansowanych urządzeń, dzięki którym w trybie pomiaru
ciągłego (on-the-go) z wykorzystaniem detekcji zbliżeniowej
(proximal sensing) można w czasie rzeczywistym pozyskać
duże ilości danych w warunkach polowych [2].
Procesy o charakterze przypadkowym są zasadniczo
bardziej złożone niż procesy uwarunkowane [3], dlatego
należy je traktować z większą uwagą. Bergeijk i in. [4]
wykorzystali orkę do zbierania informacji o właściwościach
gleby, natomiast Mouazen i in. [5] stosowali głębosz, jako
czujnik zagęszczenia, a Sirjacobs i in. [6] zastosowali
głębosz, jako narzędzie wzorcowe do mapowania pola.
Bajla i in. [7] mierzyli opór penetracji gleby poziomym
penetrometrem, konkludując, że zastosowana metoda
może być wykorzystana do szybkiego określenia stanu
gleby dla celów rolnictwa precyzyjnego oraz do
prognozowania oporów roboczych narzędzi stosowanych w
rolnictwie. Tóth i in. [8] zastosowali do badania zmienności
glebowej nóż mierzący opór poziomy gleby, w kilku
punktach profilu glebowego. Obecnie powszechnie stosuje
się penetrometry stożk więcej » Czytaj za darmo! »
Hyperthermia (HT) is defined as the phenomenon of natural
or artificial increase in temperature of whole body or its
specific parts such as tissues or organs [1]. A natural HT
results from the impairment of the body's thermoregulatory
system, which leads to defect the heat dissipation mechanism
and, as a result, to heat accumulation in dysfunctional
tissue. An artificial HT involves increasing the temperature
in the target area to values 40-45°C [2] or even higher (socalled
thermal ablation) [3], under the influence of external
heat sources (eg. hot water or wax baths) or different EMF
applicators including various-type solenoids, coils, antennas
or their multi-element arrays [1, 2]. The main task of artificial
HT is thermal damage of malignant cells that are more
sensitive to high temperature than normal cells. The main
reason for this is the fact that the cancer tissue is highly
vascularized but the tumor vessels are unable to growth
their cross-sections during heating and remove excess heat
as in the case of healthy tissues. Therefore, the tumor heats
up much faster than the surrounding tissues with the same
power of RF or MV applicators [1].
The challenge of modern hyperthermia is to design such
HT systems that selectively heat only cancerous tissue,
keeping intact healthy tissues [4]. Developing research connected
with the EM energy usage results in the emergence
of novel radiating elements [5] that allow for constant and
controlled EMF exposure conditions [6, 8]. Importantly, the
use of high frequencies limits the area of tissue penetration
[1]. Simultaneously, the combination of several probes in
the antenna matrix allows to increase the EM energy accumulation
in the target volume [9]. By utilizing several EMF
sources with the appropriate power, amplitude and phase
control of the power supply signals, the required heat
focusing within the deep-seated tumors can be achieved
[10, 11]. For better targeting the EM energy więcej » Czytaj za darmo! »
Previous research carried out in research and reference
laboratories operating in Poland and having an accredited
management system were related to many aspects of their
functioning. In particular, in 2010-2017, empirical studies
were carried out aimed at: analysis of the process and
effects of implementation of management systems
according to ISO / IEC 17025, also in the context of the time
of use of these systems (Bieńkowska, 2012), identification
of TQM compliance in laboratories (Bieńkowska, 2013),
analysis of the relation between TQM maturity and results
obtained by laboratories (Bieńkowska, 2015), or discussion
on the process of building relationships based on trust
(Bieńkowska et al., 2017).
One of the current aspects of laboratories operations is
the use of information technology (IT) in the process of
shaping the quality of the research service. Nowadays it is
obvious that the collection, processing and transfer of data
is not possible without proper IT support (Bieńkowska &
Tworek, 2018). For this reason, the aim of this study is to
diagnose the use of IT solutions in research and reference
laboratories operating in Poland. The paper describes the
results of empirical studies conducted among 84
laboratories. They constitute research material allowing to
verify the hypothesis: the higher is the IT reliability in
research and reference laboratories, the higher are the
measurable benefits obtained by these units in all areas of
their functioning.
1. The Quality Of The Research Service And The Use Of
It In The Process Of Its Development
The quality of research and reference services is
obtained by the laboratory as a result of the implementation
of activities included in the process of its provision. This
process, in general, includes both technical and managerial
activities. Technical activities relate to individual phases of
the service implementation, i.e. from the moment of
identifying the customer's needs and e więcej » Czytaj za darmo! »
W pracy zaprezentowano możliwości przechowywania,
przetwarzania i wymiany danych JSON (JavaScript Object
Notation) w środowisku SQL Server 2016 i SQL Database,
które wykorzystywane są w szeroko rozumianych
aplikacjach biznesowych. Coraz więcej danych JSON
przechowywanych jest i przetwarzanych w środowiskach
bazodanowych, zarówno bazach relacyjnych
i nierelacyjnych (NoSQL). SQL Server 2016 i SQL Server
Database nie zawiera specyficznego dla JSON typu
danych, tak jak jest to dla typu danych XML. Do
przechowywania danych JSON wykorzystuje się typ
NVARCHAR. Istnieją natomiast elementy języka T-SQL,
dzięki którym praca z JSON jest znacznie bardziej wydajna.
Zastosowanie indeksów pozwala na wydajne sortowanie
i filtrowanie danych, które przechowywane są we
właściwościach dokumentów w formacie JSON. Bez
implementacji indeksów założonych na danych w formacie
JSON, środowisko SQL Server wykonuje pełne skanowanie
tabeli za każdym razem, gdy dane są pobierane. Nie należy
bezpośrednio indeksować kolumn z danymi w formacie
JSON, gdyż taki indeks nie jest użyteczny. Natomiast
często interesujące wydają się tzw. właściwości
występujące w formacie JSON. Wykorzystuje się wtedy
kolumny obliczane typu ‘computed’ w celu indeksowania
elementów. Jest to prosty i skuteczny sposób zapewnienia
odpowiedniej wydajności przetwarzania do tego typu
struktur.
Wbudowane funkcje do przetwarzania danych w
formacie JSON
W środowisku SQL Server nie występuje typ danych
JSON. Do przechowywania danych w tym formacie
wykorzystuje się dostępny standardowy typ NVARCHAR,
stosowany np. przy określaniu typu kolumn w definicjach
tabel:
- do składowania danych formatu JSON w bazie,
- w definicji zmiennych - do przetwarzania dokumentów
w postaci declare @json nvarchar(MAX),
- jako wartości zwracanych przez funkcję lub parametry
procedur składowanych.
Polecenie do tworzenia struktury do składowania
danych formatu J więcej » Czytaj za darmo! »
Pojęcie Big data ma zastosowanie wszędzie tam, gdzie
dużej ilości danych cyfrowych towarzyszy potrzeba
zdobywania nowych informacji lub wiedzy. W 2001 roku
META Group opublikowała raport, który opisuje Big Data w
modelu 3V:
- Volume - duża ilość danych,
- Velocity - duża zmienność danych,
- Variety - duża różnorodność danych,
Model ten w późniejszym okresie został rozszerzony o
czwarte V:
- Value - weryfikacja posiadanych danych.
Istnieje umowny podział wolumenów danych na dwa
typy:
- dane w ruchu - są to tzw. strumienie informacji (np.
komentarze Twitter/Facebook, dane giełdowe, pochodzące
z czujników - np. do przewidywania pogody lub pomiaru
życiowych oznak noworodków czy też położenia produktów
lub pojazdów),
- dane w spoczynku - są to tzw. oceany informacji (np.
logi, poczta, media społecznościowe itp.), czyli dane, które
nie zmieniają się już w czasie ale są składowane na
nośnikach informacji.
Około 80% danych na świecie jest bez ściśle
zdefiniowanej struktury. Obecnie co 2 dni wytwarzamy tyle
danych, ile ludzkość wyprodukowała od początku cywilizacji
do początku XXI wieku. Takich danych zazwyczaj nie
można w standardowy sposób przetworzyć z użyciem
metod znanych z baz relacyjnych stąd pojawiło się pojęcie
Big Data.
W celu sprostania wyzwaniom opracowany został nowy
rodzaj technologii ogólnie zwany Big Data. Wiele z tych
nowych technologii zostało zgrupowanych pod pojęciem
NoSQL.
Wyzwania związane z dużymi zbiorami danymi są
następujące: problem przechwytywanie tych danych, czas
trwania i ich aktualności, analiza i problem przeszukiwania
tak, by wydobyć istotną informację, dzielenie danych i ich
agregowanie, transfer z wykorzystaniem sieci
teleinformatycznej, prezentacja. Badania firmy Gartner
wykazało, że tylko 1 do 15% przedsiębiorstw w pełni
wykorzystuje zalety dużych zbiorów danych. Ale te
przedsiębiorstwa, którym się uda analiza dużych zbiorów
zgromadzonych danych, uzyskają przewagę nad
nieprzygotowaną k więcej » Czytaj za darmo! »
The current regulations applicable to non-business
energy users state that a microgeneration plant can be
connected free of charge to the distribution grid after
reporting such an intention to a regional distribution
company. Additionally, various funds can be obtained to
finance investments into Renewable Energy Sources
(RES). These factors are responsible for the visibly growing
interest in RES, especially photovoltaic systems and wind
turbines, equipped with inverter systems, control systems
and protection systems [1, 2, 12].
The massive increase in the number of microgeneration
plants can however cause significant problems for the
distribution grid, including aggravation of energy quality.
Because of this, microgeneration plants connected to the
grid should meet a number of technological requirements,
as well as conditions specified by grid operators in the
relevant instructions, e.g. [9] and [3], in accordance to
applicable standards and regulations [4, 5, 6, 10].
In the next sections of this paper characteristics of the
wind turbine MEW-10 are presented, followed by selected
measurement results of electrical energy quality generated
by this unit.
Characteristic of a wind turbine
The wind turbine type MEW-10 consists of a vertical
axis wind turbine (VAWT) with a three-blade rotor of the
H-Darrieus type, a disc slow-rotation permanent magnet
synchronous generator (PMSG) and a controller together
with protection systems. The rated power obtained by the
wind speed 12 m/s is 10 kW. If the wind speed exceeds this
value, the power is constrained by the control system [11].
The maximal rotational speed of the rotor is about 140 rpm.
A number of empirically obtained characteristics of the
MEW-10 are presented in Table 1.
Table 1. Basic characteristics of the MEW-10 wind turbine
Vw (m/s) P (W) rpm Vw (m/s) P (W) rpm
2 0.0 19 9 4213 103
3 110 31 10 5797 115
4 327 43 11 7732 129
5 683 55 12 10000 139
6 1215 67 13 10000 138
więcej » Czytaj za darmo! »
Modeling and forecasting the volatility of time series has
become a popular research area. Currently, this topic
attracts the attention of scientists, researchers and
economists who are focused on creating models, analytical
tools to describe mathematically changes in real world.
Process of data gathering is very complicated and exposed
to many distortions. Nevertheless, modelling of data
becomes more and more popular. It is worth mentioning
that government, economic and engineering data are
usually published as time series. Time series are the
measurements of variable taken at regular intervals over
time. Observations are made sequentially over time at
regular intervals, such as daily, weekly, monthly, quarterly
or hourly.
Some time series data are incomplete, contain many
missing observations, which may affect the estimation of
the model and the result of its estimation. Commonly
dataset has missing values that impacts on the model
correctness. What is more, data is susceptible to change
due to noise and exceptions. Statistical noise is an
unexplained variability within a given data sample, which
impairs the model’s correctness. An outlier is an
observation that is inconsistent with the remainder of the
given data set. Another definition says that an outlier is an
important kind of deviation, which occurs in the data set as
a result of measurement error. Outliers existence also in
case of heavy-tailed distribution of population. [2]
An outlier can be perceived as a valid data point or a
representative of a noise. Identification of the outlier’s
nature positively impacts on the process of fitting the best
model to the given sample. Using the visualization methods
is the best solution to discover outliers as these
observations lie outside the overall pattern of distribution.
Usually the distribution of observations differs from the
normal distribution, which is perceived as one of the
characteristics of the ti więcej » Czytaj za darmo! »
W indukcyjnych urządzeniach grzewczych dla
użytkownika istotnymi elementami są: mały pobór energii
oraz wysoki współczynnik mocy - czyli niskie koszty
eksploatacji, duża skuteczność działania oraz szybkość
działania dostosowana do zaleceń technologicznych
wykonywanego wyrobu. Przy braku możliwości zakupu
urządzenia o wskazanych parametrach należy takie
urządzenie zbudować. Przy budowie prototypu tego piecyka
autorzy wykorzystali doświadczenie zdobyte w czasie prac,
których wyniki przedstawiono w publikacjach [2,3]. Jak
wykazały badania, lepsze możliwości przekazywania
energii elektrycznej daje rezonans szeregowy [1,5] i taki
układ został tu wykorzystany do grzania indukcyjnego w
prototypowym zoptymalizowanym piecyku indukcyjnym o
częstotliwości pracy 370 kHz działającym z podstawową
harmoniczną obwodu wzbudzenia. Zastosowanie
elementów półprzewodnikowych w postaci układu
prostownikowego (jednofazowego lub trójfazowego) oraz
zastosowanie metody kluczowania do generacji przebiegów
prostokątnych wyższych częstotliwości, może prowadzić do
powstawania w obwodzie przebiegów odkształconych.
Od 1 stycznia 2001 w krajach Unii Europejskiej zaczęła
obowiązywać norma EN 61000-3-2 Kompatybilność
Elektromagnetyczna (EMC) Część 3-2: Dopuszczalne
poziomy emisji harmonicznych prądu (fazowy prąd
zasilający odbiornik mniejszy od 16 amper), dotycząca
ochrony publicznych sieci elektroenergetycznych przed
przewodzonymi zakłóceniami poprzez ograniczenie
wprowadzania harmonicznych prądu do sieci zasilającej
przez urządzenia do niej podłączone. We współczesnym
świecie nasyconym układami elektroniki, automatyki i
mechatroniki za kształt prądu pobieranego z sieci
odpowiedzialne są przede wszystkim przemysłowe układy
prostownicze stanowiące pierwsze ogniwo łączące je z
siecią elektroenergetyczną. Zastosowanie aktywnej korekcji
współczynnika mocy PFC (skrót od ang. Power Factor
Correction), pozwala na zwiększenie współczynnika mocy
całego układu do więcej » Czytaj za darmo! »
Protetyka jest dziedziną wiedzy z pogranicza medycyny
oraz techniki, zajmująca się uzupełnianiem ubytków
tkankowych, narządowych lub czynnościowych przy
pomocy sztucznego materiału zastępczego czyli protez.
Szczególne znaczenie znalazła w szeroko pojętej
dentystyce, gdzie wykonuje się w różny sposób protezy
zębowe. Wśród wielu obecnie stosowanych metod
szczególne znaczenie znalazła metoda "wytapianych
modeli" czyli stara "metoda traconego wosku" (zwana
również "cire perdue" lub "na wosk tracony"). Proces
odlewania tą metodą pozwala uzyskiwać produkty o
nietypowych kształtach ze stosunkowo dużą precyzją.
Sama metoda odlewania polega na precyzyjnym wykonaniu
przestrzennego woskowego wzorca odlewanego
przedmiotu. Odpowiednio ukształtowany wzorzec zostaje
umieszczony w specjalnym materiale ogniotrwałym (masie
formierskiej). Następnie, po stwardnieniu masy formierskiej,
w dowolny sposób usuwa się wosk (np. wypłukując gorącą
wodą), wosk może zostać użyty ponownie. Proces
zalewania uzyskanej formy odlewniczej materiałem (np.
metal, materiał syntetyczny) można prowadzić różnymi
metodami: w sposób grawitacyjny, podwyższonego
ciśnienia lub próżni. Ponieważ model formowany jest w
jednym kawałku i tym samym dokładnie odwzorowuje
postać odlewanego przedmiotu w całości, możliwe staje się
wytwarzanie odlewów o bardzo skomplikowanych
kształtach. Po rozbiciu formy otrzymany odlew zazwyczaj
poddaje się oczyszczeniu i szlifowaniu [3].
Historia sztucznych zębów [1]
Już w starożytnym Egipcie piętnaście wieków przed naszą
erą starożytni dentyści wykonywali zastępniki brakującego
uzębienia które mocowali za pomocą złotych drutów do
istniejących zębów. Zastępniki wykonywano z ludzkich
zębów, przypuszcza się, że były to zęby niewolników. Na
ziemi włoskiej w VII wieku przed naszą erą, Etruskowie
mocowali w miejsce braków na złote paski mocowane do
innych zębów odpowiednio oszlifowane zęby cieląt.
Implanty te były bardzo drogie a ich posiadania ś więcej » Czytaj za darmo! »
Gas circuit-breakers are used in high-voltage electrical
grids [1]. Air-break circuit-breakers are part of some
solutions. However, operation of these breakers involves a
range of shortcomings, including: the need to operate
compressors, considerable noise at the time of
commutation, and large size [1].
These defects are absent from circuit-breakers of
another type, where operating gas is replaced with sulphur
hexafluoride - SF6. Its physical and chemical properties are
better than of air since it does not react with materials of the
breaker fittings, is not toxic or cause fire hazards. It is far
smaller than equivalent air-break circuit-breakers. SF6
circuit-breakers are used both in new power facilities and in
modernised power switching stations on a mass scale. ABB
circuit-breakers using SF6 are the most common in highvoltage
electrical grids.LTB 362-800 (T) E4 high-voltage circuit-breaker by ABB
is analysed in this paper, quite common in the European
countries. Each phase of the breaker consists of two
modules connected in series. Each module comprises two
pairs of contacts in parallel, to which capacitors are
connected in order to distribute voltage more evenly.
It is known [2] the time of arc burning in a circuit-breaker
is affected by mechanical processes, in particular, the
distance between contacts, dependent on the rate of their
disconnection. Note gas pressure in the compression
boxes, required to extinguish the arc, is generated only by
mechanical means, without extra compression equipment
[3]. Such circuit-breakers should have expanded drives to
move contacts of the mechanism in order to overcome
pressure in the circuit-breaker box, on the one hand, and to
ensure necessary rate of contact movement in normal
operation of a circuit-breaker. The fact pressure generated
operates in the direction opposite to contacts’ movement,
which gives rise to parasitic oscillations, is an important
point in operation of więcej » Czytaj za darmo! »
Wyodrębnienie obszarów na powierzchni pola jest
bardzo złożone i wymaga zaawansowanych środków
technicznych potrafiących realizować swoje funkcje w
czasie rzeczywistym. Uwzględnić należy wiele czynników a
dużym wyzwaniem jest jak największe uproszczenie
wyznaczania granic tych obszarów na podstawie jednego
czynnika i określenie jego korelacji ze zmiennością danego
parametru produkcyjnego [1]. Wśród najważniejszych
czynników znajdują się właściwości gleby. Badanie
zmienności środowiska glebowego dla celów realizacji
rolnictwa precyzyjnego. Niektóre parametry gleby są
zmienne w czasie i przestrzeni i uchwycenie tej zmienności
metodami tradycyjnymi jest czasochłonne, pracochłonne i
kosztowne. Z tego powodu powstało wiele technologicznie
zaawansowanych urządzeń, dzięki którym w trybie pomiaru
ciągłego (on-the-go) z wykorzystaniem detekcji zbliżeniowej
(proximal sensing) można w czasie rzeczywistym pozyskać
duże ilości danych w warunkach polowych [2,3]. Jednym z
bardziej istotnych i mało rozpoznanych właściwości pól
uprawnych jest identyfikacja miejsc o nadmiernym
podpowierzchniowym zagęszczeniu gleby. Do identyfikacji
wykorzystuje się różne czujniki w tym te, które wykorzystują
czujniki tensometryczne. Tensometry oporowe w
porównaniu z innymi tensometrami wyróżniają się dużą
czułością, co pozwala mierzyć bardzo małe odkształcenia z
dużą dokładnością. Wynika to z ich charakterystyki liniowej i
wiąże się z możliwością stosowania w układach
pomiarowych wzmacniaczy. Niewielkie wymiary tensometru
pozwalają badać zjawiska spiętrzenia naprężeń, a z
powodu małych mas nadają się do badania procesów
dynamicznych. Nie są wrażliwe na drgania i wstrząsy, mogą
pracować w wysokich temperaturach i ciśnieniach, można
je również stosować na powierzchniach zakrzywionych
ponadto zapewniają łatwość sterowania i rejestracji
badanych wielkości.
Układ pomiarowy
Opory robocze narzędzia wzorcowego (rys. 1)
zmierzono wykorzystując ramę wyposażoną w c więcej » Czytaj za darmo! »
W technologiach komputerowych jednymi z
najważniejszych warunków funkcjonowania i wskaźników
rozwoju sprzętu są pojemności pamięci, szybkość
przetwarzania informacji, wydzielanie się ciepła oraz
zużycie energii. Bilanse energii i generacja ciepła są bardzo
istotnymi aspektami w funkcjonowaniu wszelkich urządzeń
elektrycznych, począwszy od systemów wytwarzania
energii, poprzez magazynowanie, przesył i dystrybucję, po
jej użytkowanie. Na wszystkich wspomnianych etapach
dąży się do ograniczania powstawania strat mocy,
zamienianych na ciepło, a w konsekwencji nadmiernych
przyrostów temperatury urządzeń i ich podzespołów, jak też
poboru energii. Wykorzystuje się często zaawansowane
techniki optymalizacyjne, aby osiągnąć najkorzystniejsze
warunki pracy urządzeń w tym zakresie [1-6]. Aspekty
cieplne są niezwykle ważne, ponieważ mają wpływ na
trwałość i niezawodność pracy osprzętu, a jednocześnie
zużycie energii oraz materiałów (z uwagi na zachodzące
procesy degradacyjne elementów i urządzeń).
Rozwój technologiczny w informatyce przedstawiany
jest zwykle ilościowo jako redukcja kosztów produkcji przy
jednoczesnym zwiększeniu skali integracji procesorów
komputerowych. Zmiany te zachodzą w czasie w trendzie
wykładniczym. To empiryczne prawo (zwane prawem
Moora) musi jednak ulec załamaniu z powodu istnienia
fundamentalnych barier [7]. Cześć z tych ograniczeń wynika
z problemów związanych z przetwarzaniem informacji w
układach cyfrowych wytarzanych w oparciu o technologię
CMOS i ma w znacznej mierze podłoże związane z
dyssypacją energii i odprowadzeniem ciepła w układach o
nanoskopowej skali integracji. Aby zmierzyć się z tym
problemem, należy wyjść poza paradygmat cyfrowego
przetwarzania sygnału w oparciu o konwencjonalne układy
elektroniczne. Jedną z możliwości jest przetwarzanie
informacji analogowej przez układy magnetyczne w postaci
fal spinowych [8-10]. Układy te (zwane magnonicznymi)
mogą być zminiaturyzowane w skali nanometr więcej » Czytaj za darmo! »
Kolektory słoneczne znajdują zastosowanie najczęściej
do podgrzewania ciepłej wody w mieszkaniach, domkach
letniskowych, obiektach sportowych, budynkach
gospodarczych a także do podgrzewania wody w
zbiornikach, basenach.
Warunki klimatyczne w Polsce ze względu na położenie są
bardzo specyficzne. Położenie Polski mieści się w strefie
klimatu umiarkowanego, co daje ok. 950-1250 kWh/m2
nasłonecznienia. Badania IMiGW wykazały, że największe
nasłonecznienie występuje na południu oraz środkowowschodniej
części Polski natomiast niekorzystne warunki
panują w części południowej oraz Górnośląskim Okręgu
Przemysłowym [1].
Zdecydowanie większa część rocznego nasłonecznienia
przypada w sezonie letnim w miesiącach od kwietnia do
września. Usłonecznienie zależne jest od wielu czynników
takich jak długość dnia, temperatura powietrza,
zachmurzenie a także lokalizacja. Dla polski średnie
usłonecznienie wynosi 1600 godzin, największą ilością
godzin słonecznych ma Gdynia występuje tam 1671 godzin
słonecznych w roku. Dla porównania Katowice to 1234
godzin na rok[1,2].
Wymienione parametry (nasłonecznienie i usłonecznienie)
mają decydujący wpływ na efektywność konwersji energii w
instalacjach solarnych. Są to zmienne charakterystyczne
dla danej lokalizacji i niestety nie mamy wpływu na ich
wielkość [3]. W celu zwiększenia stopnia wykorzystania
dostępnej energii podejmowane są liczne próby w zakresie
modyfikacji urządzenia, w którym następuje konwersja
energii jak i w zakresie budowy całej instalacji [4,6,7,11,12].
W dalsze części pracy będą prezentowane wyniki
dotyczące sprawności konwersji energii w autonomicznej
instalacji solarnej.
Cel i zakres pracy
Celem pracy jest wyznaczanie dobowej sprawności
autonomicznej instalacji solarnej pracującej w układzie
wspomagania przygotowania ciepłej wody użytkowej.
Analiza oraz obliczenia będą przeprowadzone w
określonym przedziale czasowym nie mniejszym niż okres
tygodnia. Przeprowadzona analiza będ więcej » Czytaj za darmo! »
Despite good failure statistics, transformers are one of
the weak points of the transmission system. That is why a
lot of attention is paid to ensuring protection of
transformers, which minimises the risk of emergency
situations.
The basic operational problem of superconducting
transformers (HTS) is the necessity of uninterrupted
maintenance of superconducting windings at cryogenic
temperature and not allowing losses of the superconducting
state in them. The condition in which the HTS windings
come out of superconductivity should be treated as an
emergency condition of the HTS transformer's operation,
which makes switching it on difficult and threatens
interrupting the continuity of the windings as a result of their
thermal damage.
The substitute diagram of the HTS transformer does not
deviate substantially from the conventional transformer
scheme (Figure 1).
Fig. 1. Substitute diagram of the HTS transformer
Resistances R1HTS and R2HTS, representing power losses
in the windings, are non-linear in the function of changes in
current intensity, changes in the strength of external
magnetic field and temperature changes. The non-linearity
of R1HTS and R2HTS resistance is determined by the
properties of superconducting winding wires.
Second-generation high-temperature cables (2G HTS),
currently used on windings of superconductor transformers,
are made in the form of tapes with a layer structure (Fig. 2)
[1][2]. They are relatively thin wires, compared to copper
winding wires, and the superconductor alone constitutes
only 5% of the entire cable's volume. The SCS4050 cable
with a critical current of 87 A has a thickness of 0.1 mm and
a width of 4 mm. The thickness of the superconductor layer
is 1 m in it. The remaining volume consists of metallic
layers. The SCS12050 cable with a critical current of 333 A
differs only in its width, which in this case is 12 mm.
Fig. 2. Structure of the 2G HTS cable from SuperPower Inc. [1 więcej » Czytaj za darmo! »
Presja konkurencyjna w której efektywność,
niezawodność i dyscyplina kapitałowa wiedzie prym na
globalnych rynkach energii to siła, która kształtuje politykę
państw i która nasila się z roku na rok. Nowe technologie
wspierane coraz większą świadomością społeczną
i konsekwentnie prowadzoną polityką rządową zmienią
sposób w jaki energia jest i będzie produkowana oraz
konsumowana w przyszłości tak, by zaspokoić potrzeby
energetyczne rozwijającej się gospodarki światowej.
0%
5%
10%
15%
20%
25%
Udział w globalnej konsumpcji
energii w 2017 roku w %
Rys.1. Konsumpcja energii w wybranych krajach wg. [2] w roku
2017 (wartości procentowe)
Obecne szacunki i prognozy bez wątpienia wskazują, że
popyt na energię będzie nadal rósł, a globalne zużycie [1]
energii wzrośnie o około jedną trzecią do 2040r.
Największym konsumentem energii w świecie [2] stały się
na przestrzeni ostatnich lat Chiny, które zużywają około
23,2 procent wyprodukowanej energii światowej,
wyprzedzając pod tym względem pozostałe kraje w tym
Stany Zjednoczone, Indie i Rosję. Procentowy udział
poszczególnych państw w globalnej konsumpcji energii
odnawialnej w 2017 roku (uwzględniających produkcję
energii z zasobów wiatru, energii solarnej, geotermalnej i
biomasy) przedstawiono na rysunku 1. Udział w ogólnym
zasobie konsumowanej energii w 2017r. [2] z podziałem na
kontynent prezentuje rysunek 2.
Postęp technologiczny w produkcji energii, jaki zachodzi
w oparciu o odnawialne źródła i zasoby powoduje, że
zdolność światowa do wytwarzania energii rośnie
stosunkowo szybko. Szczególnie jest on widoczny w
dynamicznie przyrastających mocach w sektorach
bazujących na odnawialnych źródłach energii, zwłaszcza
wykorzystujących energię słoneczną i energię wiatru. Ma to
również swoje konsekwencje w wykorzystywaniu
niekonwencjonalnych zasobów, w tym np. ropy i gazu
potrzebnego do zapewnienia natychmiastowej produkcji
energii w przypadku braku możliwości jej produkcji ze
źróde więcej » Czytaj za darmo! »
Postęp w technologii i ciągle wzrastający standard życia
powoduje konieczność zaspokajania rosnących wymagań
klientów w każdej dziedzinie. Dotyczy to również tkanin i
dzianin, z których wykonywana jest współczesna odzież.
Zaspokajanie rosnących potrzeb obecnie dotyczy nie tylko
nowych rozwiązań, z których słynie współczesna
tekstronika (ubrania z wbudowanymi sensorami,
zasilaniem, np. dla służb działań antykryzysowych [1,2],
tkanin z wykończeniem antybakteryjnym [3] itp.) czy
produkcji nowych włókien, ale jest też ściśle związane z
ulepszaniem jakościowym tkanin już istniejących. O
kierunkach ulepszania decydują względy estetyczne i
niezmienność struktury w długim czasie użytkowania.
Poprawa pod tym względem dotyczy takich walorów tkanin
jak barwienie (w tym uzyskiwanie pożądanych kolorów bądź
wybielanie [4]), połysk, hydrofobowość, wykończenie
antyzabrudzeniowe, redukcja tendencji do filcowania wełny
[5], zmniejszenie strzępienia przy wykrawaniu, znakowanie
lub zdobienie tkanin [6]. Stosowane w tym celu metody
opierają się na procesach chemicznych i fizycznych, z
czego te drugie ze względów ekologicznych zasługują na
większą uwagę. W procesach fizycznych wykorzystywana
jest modyfikacja plazmą [5, 7] lub laserem [5].
Celem przeprowadzonych badań było określenie
wpływu działania wiązki laserowej na strukturę powierzchni
podłoża tekstylnego w kontekście poprawy odporności
podłoża na pilling. Do oceny skuteczności zastosowanej
metody modyfikacji wyrobów włókienniczych wykorzystano
nowatorską metodę optycznej tomografii koherentnej. Na
podstawie otrzymanych obrazów cyfrowych określano
podatność tkaniny do pilingu.
Zjawisko pilingu
Zjawisko pilingu polega na powstawaniu, uznawanych
za nieestetyczne, małych supełków lub kulek. Ich
powstawanie jest skutkiem zwijania się w małe sferyczne
wiązki luźnych włókien znajdujących się na powierzchni
tkaniny. Część główną kulki, nazwaną głownią, tworzą
przede wszystkim włókna wyrobu, od więcej » Czytaj za darmo! »
Among the most important methods of hazard analysis
and risk assessment, the authors applied the FTA method.
The error tree method is a qualitative risk analysis method
using logical tree structure, allowing to model the course of
failure and then its analysis.
In the FTA method, individual factors that can lead to
an event and their potential effects are depicted in the socalled
fault tree that shows the interdependencies between
the potential main event and its causes. Identified factors
(causes) plotted on the fault tree are interrelated and can be
referred to as: specific failures (e.g. machines and devices),
human errors (e.g. on the production line), first and second
type errors, environmental conditions and other events that
could lead to failure.
In the 1990s, the use of FTA was started in the design
of systems guaranteeing a high level of safety and reliability
in the chemical, railway, IT and medical industries. It has
also become a frequently used method in risk analysis and
risk assessment alongside PHA and FMEA.
Analysis of the FTA fault tree is therefore a graphical
model of cause-and-effect relationships. The FTA scheme
illustrates the causes whose effect is referred to as an
uncertain event or risk.
The result of the FTA analysis can be, for example, a
logical tree showing the pressure tank crack scenario with
highlighted errors of the first and second type. The first type
of errors are production defects that appear while operating
under design conditions. The second type of errors are
errors of an element working in conditions for which the
device was not intended. This is usually a mistake related to
the wrong selection of an element for the process
conditions.
PHA (Preliminary Hazard Analysis)
Preliminary Hazard Analysis (PHA) focuses on
identifying any potential hazards and accidental events that
can lead to a failure or accident. It is a non-standard
method, based on knowledge available at the initi więcej » Czytaj za darmo! »
Współczesna historia rozwoju społeczeństwa jest
historią opracowania i wprowadzenia nowych technologii.
Wśród nich jako najważniejsze wymieniane są technologie
związane ze stosowaniem pól elektromagnetycznych.
Szczególnie, technologie wykorzystujące siłowe
oddziaływanie pola elektrycznego na cząstki naładowane.
Technologie te znajdują zastosowanie w oczyszczaniu
gazów kominowych z popiołu, w malowaniu elektrycznym
oraz powlekaniu powierzchni powłokami proszkowymi
opartymi na kompozytach polimerowych. Znajdują
zastosowanie również w procesach elektrografii, separacji
materiałów zawierających frakcje dyspergowane, we
wzbogacaniu rudy, itp. Udoskonalenie technologii elektronowo-
jonowych pozwoliło na zastosowanie elektrycznych
metod separacji, wykorzystujących różnice między
właściwościami składników materiałów wyjściowych w
zakresie przewodnictwa elektrycznego i przenikalności
dielektrycznej na skalę przemysłową [1-5]. Ponadto,
separacja elektryczna nie wymaga wykorzystania wody. Nie
ma potrzeby oczyszczania ścieków. Separacja elektryczna
charakteryzuje się najniższym stopniem zapylenia
powietrza, ponieważ pył jest zatrzymywany w separatorze
siłami pola elektrycznego.
W związku z rozwojem metalurgii proszków i
szerokim zastosowaniem cząstek o pewnych wymiarach w
przemyśle chemicznym, elektrotechnicznym i innych
branżach sucha separacja drobno sproszkowanych
materiałów o wymiarach mikronowych i submikronowych
jest aktualnie ważnym zadaniem [1, 6]. Z punktu widzenia
wytworzenia źródeł zasilania o dużej efektywności jak i
samych superkondensatorów ważne jest przejście do
cząstek submikronowych, a nawet cząstek o
nanowymiarach [7, 8]. Jednak materiały proszkowe o
dużym stopniu rozproszenia [7, 8] powstały dzięki syntezie
chemicznej, dlatego rozmiary powstałych cząstek są bardzo
różne (od najmniejszych, atomowych do największych w
skali makroskopowej). W przemyśle w celu obniżenia
kosztów produkcji i zwiększenia ekologiczności więcej » Czytaj za darmo! »
Pola magnetyczne wytwarzane za pomocą prądów o
różnych kształtach i polaryzacji znalazły zastosowanie w
medycynie w procesie rehabilitacji pacjentów z różnego
rodzaju schorzeniami i są uznaną formą terapii.
Wytworzenie sygnałów do terapii polem magnetycznym w
formie napięciowej nie jest zbyt skomplikowane, lecz
utrzymanie zadanego kształtu prądu, a przez to i indukcji
pola magnetycznego nastręcza wielu trudności.
Przedstawiony system przeznaczony jest do terapii i
rehabilitacji fizykalnej do stosowania w placówkach
medycznych oraz w warunkach domowych i składa się z:
 sterownika z panelem dotykowym wyposażonego w
moduły do zasilania, monitorowania i sterowania pracą
aplikatorów do terapii polem magnetycznym i
światłem,
 aplikatorów pola magnetycznego i światła,
 systemu e-zarządzania.
Sterownik
Do zadań sterownika należy obsługa funkcji takich jak:
 generowanie sygnałów terapeutycznych o odpowiednim
kształcie, amplitudzie, polaryzacji pola
magnetycznego,
 generowanie sygnałów sterujących aplikatorami do
terapii światłem LED,
 samokontrola działania poszczególnych obwodów
urządzenia,
 diagnostyka poszczególnych typów aplikatorów i ich
wizualizacja na ekranie,
 sygnalizacja stanu działania aparatury, sygnalizacja
akustyczna i optyczna,
 kontrola czasu trwania aplikacji oraz bieżący podgląd
czasu do końca zabiegu,
 automatyczne wyłączenie aparatury po zabiegu lub w
przypadku stwierdzenia nieprawidłowości działania
któregoś z obwodów.
Schemat blokowy sterownika został przedstawiony na
rysunku 1. Do generacji sygnałów zastosowano procesor
STM32F103RE z 512kB flash i 64kB RAM. Spróbkowane
sygnały terapeutyczne znajdują się w pamięci nieulotnej
procesora, który poprzez kanał bezpośredniego dostępu do
pamięci DMA przesyła dane do 12 bitowego przetwornika
C/A. Ilości próbek dobrano w ten sposób, aby możliwe było
wytwarzanie sygnału z minimalnym więcej » Czytaj za darmo! »
Wino jest produktem o zróżnicowanym składzie
chemicznym. Głównymi związkami bioaktywnymi
występującymi w winie są polifenole. Jest to bardzo złożona
grupa związków zarówno pod kątem budowy chemicznej
jak i aktywności biologicznej. Polifenole zawierają co
najmniej dwie grupy hydroksylowe przyłączone do
pierścienia aromatycznego. Występują w postaci
rozpuszczalnych w wodzie glikozydów. Do fenoli roślinnych
należą łatwo hydrolizujące flawonoidy i taniny oraz lignany,
ligniny, kwasy fenolowe, stilbenoidy i wiele innych. Wśród
nich najlepiej poznaną grupą są flawonoidy. Polifenole
łatwo ulegają utlenieniu, a flawonoidy po przejściu w
chinony dodatkowo mogą pośredniczyć w utlenianiu
związków, które same nie reagują z tlenem. Te cechy
polifenoli związane są z obecnością grup hydroksylowych,
co skutkuje łatwością włączania się w reakcje redox, które
można opisać schematem: fenol ↔ semichinon↔ chinon
[1]. W roślinach pełnią rolę przeciwgrzybiczną,
przeciwwirusową, przeciwbakteryjną i ochronią przed
promieniowaniem UVA. W organizmie człowieka wykazują
właściwości prozdrowotne: przeciwnowotworowe,
przeciwutleniające, przeciwzapalne, przeciwmiażdżycowe
czy też przeciwpłytkowe u pacjentów z chorobami sercowonaczyniowymi
[2]. Ich działanie polega także na ochronie
komórek przed szkodliwym działaniem czynników
zewnętrznych (np: promieniowanie UV) i wewnętrznych
(wolne rodniki tlenowe) poprzez dezaktywację wolnych
rodników tlenowych, a także poprzez indukcję
antyoksydantów II fazy i wpływ na ekspresję enzymów
detoksykacyjnych. Działanie przeciwnowotworowe odbywa
się na drodze wpływania na białka regulatorowe cyklu
komórkowego (p53, p21, p27, cykliny d1 i A), blokowanie
szlaku sygnału kinazy białkowej, aktywacji sygnału
apoptozy oraz hamowania ekspresji genu VEGF i
blokowanie ekspresji receptora dla VEGF [3], a także
poprzez hamowanie ludzkiej topoizomerazy II. Kolejną
bardzo interesującą cechą związków polifenolowych jest ic więcej » Czytaj za darmo! »
Radionuklidy to pierwiastki promieniotwórcze, które
dzielą się na dwie główne grupy. O przynależności
pierwiastka do danej grupy decyduje jego pochodzenie. Do
pierwszej grupy radionuklidów, zalicza się pierwiastki
powstałe podczas formowania się układu słonecznego. Ich
cechą charakterystyczną jest długi czas połowicznego
rozpadu wynoszący co najmniej 5·109 lat (235U, 238U, 232Th).
Do drugiej grupy pierwiastków promieniotwórczych
zaliczane są wszystkie izotopy, które powstają w wyniku
przemian pierwiastków znajdujących się w powietrzu
atmosferycznym pod wpływem np. działania
promieniowania kosmicznego (np. 3H, 7Be, 14C) [1].
Węgiel kamienny jest najstarszym wykorzystywanym
źródłem energii na świecie. Pomimo generowania wielu
problemów środowiskowych związanych z jego
pozyskiwaniem i spalaniem jest nadal popularniejszy niż
gaz ziemny, ropa naftowa, energia jądrowa, wodna i
odnawialna. Energia elektryczna wytwarzana z węgla
kamiennego stanowi około 40% produkcji światowej. O
zachowaniu się węgla w procesach spalania decyduje
obecność pierwiastków takich jak wodór, azot i siarka [2].
Węgiel kamienny najczęściej powstaje z torfu w
procesach kompresji i przebudowy strukturalnej.
Transformacja materii organicznej do węgla kamiennego
jest dwuetapowa - biochemiczna i fizykochemiczna.
Powstawanie węgla jest zawsze poprzedzone procesem
torfowania, a następnie grafityzacją [3,4]. Etap
fizykochemiczny rozpoczyna się po zakończeniu rozkładu
mikrobiologicznego materii organicznej w torfowiskach.
Głównymi czynnikami działającymi na materię podczas fazy
fizykochemicznej i wpływającymi na powstawanie węgla są
temperatura, ciśnienie, objętość i czas. Temperatura jest
uważana za kluczowy czynnik przy powstawaniu pokładów
węgla kamiennego. Jej wzrost przyspiesza reakcje
chemiczne podczas uwęglania materii w torfowiskach
[4,5,6]. W miarę postępowania procesów uwęglania
następuje progresywna transformacja złoża torfu,
zwiększając proporc więcej » Czytaj za darmo! »
W ostatnich latach obserwujemy bardzo dynamiczny
wzrost zainteresowania odnawialnymi źródłami energii. Jest
to efekt wielu czynników, z których za najważniejsze można
uznać: redukcję cen urządzeń wytwarzających energię z
OZE, wzrost cen sieciowych nośników energii oraz
docenienie aspektu społecznego związanego z ograniczoną
dostępnością energii ze źródeł konwencjonalnych, jak
również koniecznością ochrony środowiska naturalnego.
Największa dynamika rozwoju widoczna jest w sektorze
OZE związanym z wykorzystaniem energii Słońca do
wytwarzania energii elektrycznej. W roku 2017 moc
zainstalowana w systemach PV posiadających koncesję
Urzędu Regulacji Energetyki na wytwarzanie energii
elektrycznej wynosiła prawie 104 MWp [1], gdy na koniec
roku 2013 wynosiła zaledwie 1,9 MWp. Dzięki pracy tych
instalacji w 2017 roku wytworzono 38,8 GWh energii
elektrycznej. Oprócz systemów fotowoltaicznych
posiadających koncesję na wytwarzanie energii działa
również wiele małych instalacji o mocy do 40 kWp w
oparciu o zgłoszenie, a ich moc jest szacowana na ponad
93 MWp [2, 3]. Dalszy wzrost zainteresowania systemami
fotowoltaicznymi prawdopodobnie nadal będzie utrzymany
ze względu na systematyczny spadek cen paneli
fotowoltaicznych i niezbędnego osprzętu.
Na podstawie dostępnych informacji [4], można przyjąć,
że w 2017 roku średnia cena modułów fotowoltaicznych
mono- i polikrystalicznych wyniosła około 0,55
EUR/Wp (produkt japoński i koreański), 0,49 EUR/Wp
(produkt chiński), 0,47 EUR/Wp (produkt niemiecki), 0,39
EUR/Wp (produkt z południowo-wschodniej Azji). W stosunku
do roku poprzedniego są to ceny niższe od 12 do
20%.
Jednym z podstawowych czynników decydujących o
rentowności instalacji fotowoltaicznych jest sprawność
systemu, która uzależniona jest głównie od sprawności
paneli fotowoltaicznych. W warunkach
idealnych/laboratoryjnych sprawność paneli
fotowoltaicznych może osiągać ponad 33 % [5, 6, 7]. W
warunkach rzeczywistych uzyskuje s więcej » Czytaj za darmo! »
W artykule omówiono rolę wskaźników altemetrycznych,
zaprezentowano ich rodzaje i próbowano odpowiedzieć na
pytania m.in. czy altmetria może być alternatywą dla
wskaźników bibliometrycznych dla publikacji dotyczących
bezpieczeństwa i higieny pracy (BHP) oraz
elektromagnetyzmu, wykorzystywanych jako parametry w
komunikacji naukowej. Gdzie można znaleźć informacje o
wskaźnikach altmetrycznych publikacji, w jaki sposób są
udostępniane? Kto powinien zadbać o umieszczanie
informacji o nich, czy to jest rola autora czy wydawcy? Czy
pracownicy naukowi wiedzą o ich występowaniu, o różnych
rodzajach baz, które dostarczają informacji na ich temat?
Czy wiedzą, że wskaźniki te są elementem komunikacji
naukowej? Czy chcąc uzyskać informacje o wskaźnikach
mogą korzystać z jednego źródła informacji, aby uzyskać
wszystkie te informacje jednocześnie, czy muszą korzystać
z nich rozdzielnie, aby zobaczyć ile Tweetów, pobrań ma
dany artykuł?
Aby odpowiedzieć na te pytania dotyczące wskaźników
altmetrycznych, autorzy przeszukiwali dwie bazy, jako
źródła informacji o publikacjach na temat
elektromagnetyzmu i bhp - Scopus (Elsevier) oraz Web of
Science CC (Clarivate Analytics). Jako przykłady wybrali
artykuły, które ukazały się w czasopismach
reprezentujących te zagadnienia, indeksowanych w
wymienionych bazach, tj. Bioelectromagnetics [Wiley Online
Library] i International Journal of Occupational Safety and
Ergonomics (JOSE) [Taylor&Francis]. Wyszukiwania
przeprowadzono we wrześniu 2018 roku.
Co to jest altmetria
Wskaźniki altmetryczne zostały zaproponowane jako
mechanizm pozwalający wskazać publikacje naukowe,
których przyrost rok do roku jest coraz większy.
Przykładowo, tych zindeksowanych publikacji w bazach, dla
afiliacji Poland w bazie Scopus, zindeksowano jest
odpowiednio w 2017 r. = 46814, 2016 r. = 45933, a w 2015
r. = 43280. Dane te nie dotyczą całego dorobku
publikacyjnego, ale wskazują na stały wzrost rok do roku.
Poza bazami publ więcej » Czytaj za darmo! »
Produktywność naukowa jest dziś postrzegana głównie
przez pryzmat ilościowej aktywności publikacyjnej i nie
zawsze jest tożsama z jakością. W literaturze można
znaleźć różne analizy dotyczące produktywności, ale
generalnie brakuje pogłębionych opracowań poświęconych
czynnikom warunkującym jej pomiar. Autorzy publikacji
poświęconych tej problematyce koncentrują się często na
analizie danych bibliometrycznych dotyczących czasopism,
dziedzin lub ośrodków naukowych, porównują dorobek
naukowy1 czy też sposoby mierzenia produktywności z
wykorzystaniem dorobku publikacyjnego i indeksów
cytowań2. Istnieją też prace zwracające uwagę na
niedoskonałości związane z ocenianiem naukowców za
pomocą tego typu indeksów3 oraz trudności, z jakimi łączy
się ocenianie np. czasopism4. Według naszej wiedzy nie ma
badań, które brałyby za przedmiot determinantę, jaką jest
semantyka systemów organizacji wiedzy, czyli systemów
pojęciowo-terminologicznych stosowanych do
reprezentowania i wyszukiwania informacji. W artykule
podejmiemy się wstępnej analizy tego problemu w
odniesieniu do zagadnień elektromagnetyzmu oraz
bezpieczeństwa i higieny pracy (BHP) reprezentowanych w
zasobach terminologicznych na przykładzie języka haseł
przedmiotowych KABA (JHP KABA), tezaurusa
Bezpieczeństwo Pracy i Ergonomia oraz słów kluczowych
w kwartalniku "International Journal of Occupational Safety
1Wróblewski A.K., (2005). Nauka w Polsce według rankingów
bibliometrycznych. Nauka, nr 2, 13-28.
2Osiewalska A. (2008). Analiza cytowań z wybranych
polskojęzycznych czasopism ekonomicznych. W: Zarządzanie
informacją w nauce. Katowice, Wydawnictwo Uniwersytetu
Śląskiego, 244-256.
3Błocki Z., Życzkowski K. (2013). Czy można porównywać jabłka i
gruszki? O danych bibliometrycznych w różnych dziedzinach nauki.
Nauka, 2, 37-46.
4WilkinJ. (2013). Ocena parametryczna czasopism naukowych w
Polsce - podstawy metodologiczne, znaczenie praktyczne,
trudności realizacji i perspektywy. N więcej » Czytaj za darmo! »
Do oceny narażenia środowiska polami
elektromagnetycznymi wytwarzanymi podczas wielu
różnych procesów technologicznych niezbędna jest
identyfikacja natężenia składowej elektrycznej oraz
magnetycznej takich pól. W wielu państwach dopuszczalne
wartości graniczne są jasno określone przez odpowiednie
akty prawne. W Polsce takim dokumentem jest
Rozporządzenie Ministra Środowiska w sprawie
dopuszczalnych poziomów pól elektromagnetycznych w
środowisku oraz sposobów sprawdzania dotrzymania tych
poziomów [1].
Znajomość rozkładu natężenia pola elektrycznego oraz
pola magnetycznego jest niezbędna w celu dokonania
oceny uciążliwości dla otoczenia oraz wpływu na
środowisko obiektów elektroenergetycznych takich jak np.
linie przesyłowe lub stacje rozdzielcze [2,3].
Badania naukowe dotyczące oddziaływania pól
elektromagnetycznych na organizmy żywe nie dają
jednoznacznej odpowiedzi na pytanie w jakim stopniu
mogą one szkodliwie wpływać na funkcje życiowe.
Niewątpliwie występowanie pola elektromagnetycznego w
środowisku powoduje określone skutki w żywych
organizmach ponieważ wiele procesów życiowych
związanych jest z przekazywaniem sygnałów elektrycznych
czy też z procesami transportu jonów [4, 5, 6, 7, 8, 9, 10].
W przypadku narażenia człowieka na oddziaływanie
skłądowej magnetycznej pola elektromagnetycznego o
stosunkowo wysokim natężeniu mogą pojawić się
przemijające efekty zwane magnetofosfenami czyli
doświadcza się odbierania narządem wzroku swoistych
"rozbłysków", które w rzeczywistości nie mają miejsca [11].
Skutki pozostawania organizmów żywych w zasięgu
oddziaływania pola elektromagnetycznego są
uwarunkowane indywidualnymi osobniczymi cechami oraz
dawką na jakie są one narażone. Dawka jest ściśle
uzależniona od czasu trwania narażenia oraz od natężenia
pola elektromagnetycznego w zakresie składowej
elektrycznej jak również składowej magnetycznej.
Przy wykorzystaniu pól elektromagnetycznych możliwe
jest również oddziaływanie i więcej » Czytaj za darmo! »
Użytkowanie energii elektrycznej pociąga za sobą
szereg zagrożeń dla środowiska oraz zdrowia i życia ludzi.
Każdy zdaje sobie sprawę z niebezpieczeństwa porażenia
prądem elektrycznym, a przypadki takich porażeń ze
skutkiem śmiertelnym są nagłaśniane i ujmowane w
statystykach. Nie wszyscy zdają sobie jednak sprawę z
faktu, że użytkowanie energii elektrycznej wiąże się z
powstawaniem pól elektromagnetycznych (PEM), które
mogą być dla człowieka szkodliwe.
Sieci i instalacje elektroenergetyczne oraz wszystkie
urządzenia zasilane za ich pośrednictwem w energię
elektryczną wytwarzają PEM o częstotliwości 50 Hz. Część
z tych urządzeń, takich jak kuchenki mikrofalowe, telewizory
czy komputery, emituje dodatkowo pola o znacznie
wyższych częstotliwościach.
Od lat prowadzone są badania i toczą się dyskusje na
temat wpływu pól elektromagnetycznych na środowisko, w
szczególności na zdrowie ludzi. I chociaż zdania na temat
stopnia szkodliwości tych pól są podzielone zaowocowały
one wprowadzeniem przepisów określających
dopuszczalne wartości wielkości charakteryzujących PEM,
oddzielnie dla miejsc pracy, z wyszczególnieniem trzech
grup pracowników, miejsc dostępnych dla ludności oraz w
obszarze zabudowy mieszkaniowej.
Człowiek spędza w mieszkaniu większą część swojego
życia, gdzie narażony jest na działanie pól
elektromagnetycznych, zwykle słabych ale często
długotrwale działających. W ostatnich latach upowszechnia
się pogląd, że długotrwałe działanie słabych pól
elektromagnetycznych może być dla człowieka groźniejsze
niż wystawienie na ekspozycję silnych pól przez krótki
okres czasu.
Pole elektromagnetyczne jest tworzone przez
współistniejące pole elektryczne i pole magnetyczne.
Wielkościami charakteryzującymi PEM są, obok
częstotliwości, natężenie pola elektrycznego E i natężenie
pola magnetycznego H lub alternatywnie indukcja
magnetyczna B. W Polsce, prawnie dopuszczalne poziomy
pól elektromagnetycznych o częstotliwości 50 Hz w str więcej » Czytaj za darmo! »
Uzyskiwanie ziemiopłodów o jak najwyższej jakości jest
jednym z podstawowych celów rolnictwa. Tradycyjne
metody oceny jakości surowców, oparte na analizie
zawartości określonych substancji chemicznych i ocenie
organoleptycznej, nie definiują jakości w sposób precyzyjny
i obiektywny [1, 2]. Podejmowane są więc próby
opracowania metody pozwalającej na dokładną ocenę
standardu produktów żywnościowych. Jedną z takich metod
jest pomiar emitowanych przez produkt żywnościowy
biofotonów, definiowanych jako fotony promieniowania
elektromagnetycznego o niewielkim natężeniu i długości fali
od 300 do 800 nm [3-5]. Ten rodzaj promieniowania
określany jest w literaturze jako wtórna luminescencja lub
biochemoluminescencja, zachodząca na poziomie fotonów.
Zachodzi ono, gdy elektronowo - oscylacyjnie wzbudzona
cząsteczka pozostaje w równowadze termicznej z
otoczeniem. Koncepcję wykorzystania emisji
promieniowania żywych organizmów (bioluminescencji) do
oceny jakości żywności opracował F.A. Popp. Metoda ta
polega na pojedynczym zliczaniu fotonów (ang. Single
Photon Couting). Na podstawie długoletnich badań F.A.
Popp stwierdził, że jakość żywności zależy od
zgromadzonej w niej energii świetlnej w postaci biofotonów,
a produkty lepszej jakości mają większą zdolność do
kumulowania światła [6-8].
Układ pomiarowy
Do przeprowadzania badań użyto autorskiego układu
pomiarowego umożliwiającego rejestrację ilości biofotonów
emitowanych z produktów żywnościowych (rys. 1),
składający się z komory pomiarowej z wbudowanym
fotopowielaczem. Urządzenie nie posiada wyświetlacza
oraz elementów manipulacyjnych - całość sterowania
odbywa się z komputera typu PC przy pomocy
dedykowanego oprogramowania BioLumi. Pomiar emisji
fotonów realizowany jest poprzez zastosowanie
fotopowielacza. Emitująca światło próbka jest umieszczona
w centralnej części komory pomiarowej w osi symetrii
szczeliny fotopowielacza. Fotopowielacz zamienia sygnały
świetlne pochodzące od b więcej » Czytaj za darmo! »
Przy wyznaczaniu pętli histerezy różnicowej [1],[2],[3]
pojawiła się potrzeba uzyskania jednorodnego pola
magnetycznego na całej długości solenoidu. Natężenie pola
magnetycznego cewki wyznaczane z prawa przepływu
Ampera jest uśrednione dla całej długości cewki i nie
uwzględnia niejednorodności na jej końcach. Do uzyskania
jednorodnego pola można zastosować wiele technik,
najczęściej jest to dodatkowe uzwojenie kompensacyjne na
końcach solenoidu. W niniejszej pracy przedstawiono
wybrane sposoby analizowania pola magnetycznego oraz
sposoby kształtowanie pola magnetycznego przewodnika
z prądem, przy założeniu że średnica przewodnika jest
mała w porównaniu z wymiarami zwojów.
Pole wewnątrz solenoidu
Do wyznaczenia rozkładu pola natężenia
magnetycznego można zastosować prawo Biota-Savarta
(1) dla pojedynczego zwoju, które zostało zastosowane
w aplikacji arkuszowej.
(1) 2 2
d
4π
d sin 90
4π
d
r
I l
r
H I l  
 
 
Rys.1. Aplikacja arkuszowa zastosowana do obliczeń
numerycznych
po scałkowaniu:
(2)
2
3
2 2
2
2 (R x )
H I R
 


gdzie: I - natężenie prądu, x - odległość od początku
solenoidu, R - promień zwoju.
Rys.2. Rozkład natężenia pola magnetycznego H wzdłuż osi
solenoidu z kompensacją - powyżej i bez kompensacji - poniżej
Rysunek 1 przedstawia wygląd aplikacji arkuszowej,
z wybraną formułą w komórce G10, która zawiera
zakodowane wyrażenie (2). Ta formuła wykorzystuje nazwy
komórek przez to jest uniwersaln więcej » Czytaj za darmo! »
Obecnie, szczególnie w miastach, mamy do czynienia z
dużą liczbą starzejących się konstrukcji transmisyjnych,
takich jak słupy energetyczne, czy trakcyjne, a korozja
podziemna stała się poważnym problemem zarówno
technicznym, jak i ekonomicznym. Każdego roku wydawane
są coraz większe kwoty na utrzymanie, przegląd i
modernizację skorodowanych struktur. Bardzo ważne stały
się odpowiednio skuteczne i ekonomicznie wykonywane
techniki ograniczania korozji zaprojektowane specjalnie dla
infrastruktury przesyłowej.
Słupy trakcyjne
Konstrukcje transmisyjne, takie jak słupy trakcyjne i
trakcyjno-oświetleniowe, przystosowane do podwieszania
sieci trakcyjnej tramwajowej oraz montażu oświetlenia dla
dróg publicznych, zabezpieczane są antykorozyjnie przez
cynkowanie ogniowe na zewnątrz i wewnątrz słupa wg
normy DIN 1461 oraz dodatkowo stosowane jest nakładanie
powłok malarskich. Słupy te składają się z dwóch sekcji:
nadziemnej, która podtrzymuje przewód napowietrzny i
podziemnej, tj. fundamentu konstrukcyjnego, który
podtrzymuje sekcję nadziemną. Obie części konstrukcji
poddane są starzeniu w wyniku stresów środowiskowych i
mechanicznych. Jednak znacznie wyższe ryzyko degradacji
materiału jest na fundamencie z powodu działania korozji
podziemne, która jest znacznie trudniejsza do identyfikacji,
a co za tym idzie, także dużo groźniejsza, ponieważ nie jest
widoczna. Przykładowy słup trakcyjny przedstawiono na
rysunku 1.
Skuteczną i niezawodną metodą ograniczania korozji
podziemnej dla znajdujących się w ziemi części konstrukcji
stalowych okazała się ochrona katodowa. Jest ona też
stosunkowo dobrze zbadana dla struktur o prostych
geometriach, takich jak np. systemy rurociągów [3-6].
Jednak brak jest wytycznych dotyczących projektowania
systemów ochrony katodowej podziemnych elementów dla
struktur bardziej złożonych, jak np. podstawy słupów
energetycznych. Związane jest to głównie z szeroką gamą
projektów fundamentów. Szczegółowe modele
więcej » Czytaj za darmo! »
The increasing number of artificial sources of electromagnetic
fields (EMFs) raises concern about its impact on
human health. Beside many beneficial and therapeutic
applications of EMFs [1], there are more and more publications
describing the unfavourable effect of the EMFs exposure
on humans and mostly pointing on the deterioration of
well-being, disruption of the nervous system functions or
the cancer occurrence. Recently, there have also appeared
articles indicating the relationship between the higher
incidence of neurodegenerative diseases and the increased
exposure to EMFs [2]-[4]. However, the published results
are not unequivocal and often contradictory. Researchers
try to define a mechanism that could explain the impact of
EMFs exposure on the increased incidence of neurodegenerative
diseases, suggesting the participation of,
among others, oxidative stress. Nevertheless, further research
is needed to thoroughly explain the mechanism of
action of the EM field on the central nervous system and to
explain the potential relationship with neurodegenerative
diseases. In this paper, neurodegenerative diseases such
as Alzheimer's disease (AD), Parkinson's disease (PD),
amyotrophic lateral sclerosis (ALT) and multiple sclerosis
(MS) will be briefly presented. Next, the relationship between
the incidence of neurodegenerative diseases and the
EMFs exposure will be discussed. Also an examples of
usage of EM fields in the treatment of neurodegenerative
diseases will be described at the end.
A brief description of neurodegenerative diseases
Neurodegeneration is the progressive loss of structure or
function of neurons, including death of neurons. There are
several hundred neurodegenerative diseases (NDD), and
the main difficulty in their classification lies in the fact that
their symptoms may coincide with each other. An additional
issue in the classification of neurodegenerative diseases is
the fact that in many neurodegenerativ więcej » Czytaj za darmo! »
The effect of the electromagnetic field (PEM) of high
frequency on the tissue of the body is a subject of research
conducted by numerous scientific centres across the world.
Electromagnetic radiation causes various ailments among
workers, depending on the field strength and frequency.
Operation of a technological machine in the
electromagnetic field (PEM) that derives from various
sources puts a machine operator in danger of harmful
factors. PEM can also affect negatively operation of the
machine and operating system [1, 3].
The forecast methods applied to economy were used,
including the Simple Moving Average (SMAMS) and
weighted- average method (WMAMS), or using the simple
model of exponential smoothing. The method of the Simple
Moving Average is based on a time series. Time series
should be characterized by a fixed (average) level with
random fluctuations. The average moving weighted method,
similarly to Simple moving Average is based on a time
series. The basic assumption was that the time series of
deviation change should be characteristic of a fixed
(average) level with random fluctuations. The premise for
using the method is high random fluctuations. The action
mechanizm of the method takes into consideration the
phenomena of dating the information (the most recent
information are of greater importance) (Fig.1, Fig.2).
Fig.1. General form of time series and its components in typical
course of time series
The basic method of electromagnetic risks assessment
at workplace, used in accordance with the regulation of the
Minister of Labour concerning NDN electric and magnetic
fields and Polish PN-T-06580:2002 norm, is based on
induction of magnetic field and that affect the operator [2,
4, 5, 6].
Fig.2. General form of time series and its components in time
series components (random, seasonal, cycl więcej » Czytaj za darmo! »
Honey bees (Apis mellifera L.) are the most important
pollinators of many agricultural crops worldwide. The abrupt
decline in pollinator abundance and diversity is not only a
conservation issue but also a threat to crop pollination. This
problem is one of the most popular among recently
conducted studies. Theories involving mites, pesticides,
global warming, and genetically modified crops, have been
proposed, but all have drawbacks. Another possible cause
of that phenomenon is the development of
telecommunications technology and the increasing number
of electromagnetic field sources [1-4].
It is assumed the electromagnetic fields (EMFs) interfere
with bees' navigation systems, preventing the home-loving
species from finding their way back to their hives. Colony
Collapse Disorder (CCD) occurs when a hive's inhabitants
suddenly disappear, leaving only queens, eggs and a few
immature workers. The vanished bees are never found but
are thought to die singly, far from home [2].
As with many other eusocial animals, honeybees have a
fascinating ability to sense the Earth magnetic field and use
it for the spatial orientation. The presence of organized
magnetic nanoparticles in bee bodies is well documented
and indicated as a possible magnetic detector [5-14].
Magnetoreception is applied by bees, during their waggle
dances [15]. This kind of communicative dance is
performed by bees in the hive’s interior, in complete
darkness, to inform other workers about potential food
sources. In swarming colonies, dances provide information
regarding the new nest location, and when to move in. The
honeybees have a sensitivity to the Earth’s magnetic field
poles and lines, and they use the information about the
location and orientation of the hive entrance relative to the
direction of the EMF force lines. Many experimental data
confirm a spatial orientation loss and behavioural
disturbances in the honeybee colonies, whose location and więcej » Czytaj za darmo! »
Introduction
Correct functioning of variable-frequency electric drives
(VFD) with induction motors (IM) depends on the reliable
operation of IM, a three-phase autonomous voltage invertor
(AVI), and a control system (CS).
IM malfunctions include failures of:
- one or several phases of the stator;
- electrical asymmetry;
- magnetic asymmetry;
- mechanical breaks, etc.
AVI malfunctions include:
- the failure of a separate semiconductor switch;
- the failure of one or two invertor arms;
- the malfunction or failure of the control driver, etc.
CS malfunctions include:
- the break of angular rotation frequency sensor;
- the break of the current sensors;
- the breaks at the formation of the control signals,
etc.
The share of IM malfunction is the biggest in the whole
scope of VFD failures. When IM operates with insignificant
defects or with the breaks at the early stages of their
development the system maintains its operability. In this
case the quality of control deteriorates; the indices of the
energy efficiency of the process of the electromechanical
energy conversion decreases, the losses increase
essentially and variable components of the electromagnetic
torque and consumed active power appear.
In such cases fault-tolerant control systems (FTC) are of
great interest. They usually consist of two parts: the system
of diagnostics and fault revelation and the system of the
formation of special control impacts for their compensation.
The scope of FTC systems is determined by
the elements for which it is important to maintain an
operational state in case of damage, despite the reduction
in power, speed and energy efficiency:
- electric transport drive;
- electric drive of critically important technological
objects;
- electric drive of fire pumps, pumping stations of
public water supply and water disposal;
- electric drive of ventilation systems.
Problem statement
With the given significant number of developed fault
toler więcej » Czytaj za darmo! »
Flexibility is one of the main features of contemporary
production. First of all, it means a capability to quickly readjust
to the issue of a new product. In this case, it is
necessary to meet a number of basic requirements to the
technological equipment foremost determining its efficiency
and reliability indices.
As a rule, the most part of this equipment is partially or
completely automated. This, along with the use of control
facilities, implies the presence of controlled devices, first of
all, various electric machines (EM). They chiefly determine
energy consumption and partially - the reliability of the
whole equipment. Having comparatively long mean-timebetween
failures, most often, such EMs are not subject to
change during the modernization of the equipment [1].
However, everybody knows that their parameters and
characteristics deteriorate during long-term operation and
repairs due to their aging [2]. Nowadays universal
approaches to the analysis of aging processes in technical
systems, including EMs, are practically absent.
The idea of EM aging did not widely spread in the
technical and research literature because of the
impossibility of its exact description and mathematical
representation. However in this case we can consider it as
partial loss of the properties and characteristics by the
basic structural materials, elements and whole EMs under
the influence of external factors occurring in the process of
operation and repairs with the course of time.
As the final stage of this process is of little practical
interest, one can consider the moment of time when EM
does not provide the required technological conditions or
when the expenditure on their operation essentially
influences the cost of the issued product to be the limit of
aging.
Thus, the substantiation of the principles of taking into
account the processes of EM aging is an important
scientific-research problem. In the future, it will enable
forecasting więcej » Czytaj za darmo! »
The motoring and electricity markets have been
separate sectors of the economy not so long ago. They
operated independently of each other, they did not have a
common recipient -- a common denominator. It resulted
from the fact that they presented types of energy carriers -
although in both cases they were fossil. Currently, the
dynamically developing automotive and transport sector
opens up a whole new dimension of usability. The transport
sector is responsible for about 30% of the total final energy
consumption and for about 25% of harmful gas emissions
[1]. One of the ways to reduce this share is to replace
traditional vehicles with internal combustion engines (ICE)
with battery electric vehicles (EV) and hybrid vehicles with
an extended range with a battery (plug-in hybrid electric
vehicle PHEV) [2].
Electric vehicles are much more energy-efficient and
clean, i.e. they do not emit these impurities. Among other
things, for this reason, as current sources state until 2030,
half of the cars in the world will be electrified. 20% of cars
sold in Europe until 2023. will have an electric motor. The
total withdrawal of combustion cars from sale until 2030 is
declared by countries such as Norway, the Netherlands and
Germany [3].
To achieve these results and maintain the current
upward trend, electric vehicles must be widely used in the
future (Fig.2.). Although they still have a small market
share, there is an increasing interest in this type of
technology. This is achieved by overcoming their traditional
bottleneck, which provides short range, high price (these
two are mainly related to the battery) and lack of charging
infrastructure, also of quick type [4].
To illustrate the main "deceleration of expansion" of the
electric vehicle in the simple comparative analysis of EV
and a diesel-powered car, the cost of purchase, annual
operating costs, replacement cost of batteries (after 8 years
for EV), fuel cost, electricity costs, więcej » Czytaj za darmo! »
Tomography is a technique that allows obtaining a
cross-sectional image of the examined object on the basis
of data from the measurement of a given physical value
(radiation, capacity, resistance, etc.) at selected points
usually lying on the edge of the tested area. The resulting
measurement vector is used to reconstruct the crosssection
image using appropriate algorithms. The obtained
image represents the distribution of a certain feature of the
examined object depending on the type of tomography
used. It can be material density, concentration, electrical
permittivity, conductivity, etc.
Electrical tomography covers many tomographic
imaging methods based on the processing of various
electrical parameters [1,3,4,7,9,10,12-14]. Despite the fact
that many methods have already been developed for
assessing damage to flood embankments, there is no single
universal tool for their diagnosis and monitoring. In this
paper, a new method for testing flood embankments and
landfills by means of electrical resistive tomography (ERT)
was presented. For the needs of the research, a special
measuring system was developed with special multisensor
electrodes for depth measurements using ERT. The
algorithms used for image reconstruction were based on
gradient and topological methods. After minor modifications,
it is possible to apply the discussed technique to solving
reverse problems in electrical tomography [6, 18-23]. The
combination of tomographic techniques with reconstruction
algorithms allowed non-invasive and more accurate spatial
assessment of seepages and damages to flood protections.
Model
Electric tomography including ERT enables non-invasive
measurements of various types of technical objects. The
i więcej » Czytaj za darmo! »
Electric tomography is based on the transformation of
data taken from the surface of the tested object into the
image of its cross-section. There are many methods to
optimize the obtained image by solving the appropriate
objective function [1-5,13,15,16,20-25,32]. The algorithm
based on the ElasticNET presented in this article is a new
proposal in tomography.
Fig. 1. Model of measuremnt system.
The way of working of electrical impedance tomography
(EIT) consists in introducing electrical voltage to the tested
object by means of a set of electrodes located on the
surface of the object. Next, the measured values of
electrical potentials between individual electrode pairs are
collected. Conductance of individual sections of the crosssection
of the tested object is reconstructed on the basis of
known values of voltages and measured values of
potentials. Reconstruction of the image obtained by
electrical tomography requires sophisticated modeling. This
method of imaging consists in the fact that the conductivity
distribution of the tested object is estimated on the basis of
measurements of electrical voltages and electrode
potentials on the surface of their contact with the tested
object. In order to obtain quantitative data on changes in the
conductivity inside an object, it is more effective to apply a
non-linear model in differential imaging [1,6-12,14,17-
199,26-31]. In Fig. 1 shows the model of the measurement
system.
ElasticNET
Let’s consider the problem of recognizing linear
dependencies
(1) Y  X  
where Y Rn , X Rnk1 are the observation matrices of
a output variable and predictive variables respectively,
  Rk1means a matrix of structural parameters, while
 Rn vector of independent random variables. The wellknown
method of least squares consists in estimating
unknown parameters & więcej » Czytaj za darmo! »
The basic operation topology of Stirling engine is
implemented when the engine receives thermal energy and
converts it into mechanical movement. Conversion is
possible with three different types of Stirling engine, alpha,
beta or gamma type. All three types need an external
source of thermal energy. It can be provided by different
conventional energy sources or renewable energy sources
in applications with external combustion. Stirling engine is
most often used in micro Combined Heat and Power
(μCHP) applications, which are mostly based on renewable
energy sources. Versions with mirrors, using solar energy,
and versions with external combustion of e.g. biomass, are
used.
A pressure vessel is a component of Stirling engine as
container designed to hold gases or liquids at a pressure
substantially different from the ambient pressure. Pressure
vessels can be dangerous, and fatal accidents have
occurred in the history of their development and operation,
thus in present research determination of quality
assessment of high strength steel used for pressure vessel
design is necessary [1-4]. Pressure vessel of prototype
Stirling engine operated under 210 OC as a hot cylinder and
it is made by high temperature resistance steel
10CrMo10V5 and welded together with two undermached
welds (Fig. 1). In the assessment of pressure vessels as a
welded structures the consideration of both strength
mismatching and transferability cannot be avoided. In this
paper we first review the effects of the mismatch observed
in pressure vessel with two welded joints on strength and
fracture, and show that the plastic constraint due to
strength mismatching plays an important role in fractureinitiation
behavior for ductile and brittle cracks which
appeared in the pressure vessels [3]. Finally, for all testing
of pressure vessel and the steel specimens the standard
test procedures were used for determining the weldability
and quality assessment of hig więcej » Czytaj za darmo! »
Research and development of photovoltaic (PV) cells
has led to higher efficiencies, significant cost reductions and
long operating lifetimes with minimal degradation [1]. The
double diode model of the photovoltaic cell/module is fast
becoming a viable alternative to the highly popular single
diode model for PV simulations [2]. In general, there are two
ways to extract the solar cell parameters: (1) analytical and
(2) numerical method The analytical technique requires
information on several key points of the I-V characteristic
curve, i.e. the current and voltage of at the maximum power
point (MPP), short-circuit current, open-circuit voltage and
slopes of the I-V characteristic at the axis intersections. It
has been noted that the I-V is highly non-linear and any
wrong selected points may result in significant errors in the
computed parameters [3]. While the numerical extraction
technique relies on mathematical algorithm to fit all the
points in the I-V characteristic curve. The results obtained by
numerical extraction technique are more accurate,
compared to the analytical technique, due to utilization of all
points on the I-V curve. The following authors present
different approaches to extract solar cell parameters.
AlRashidi [4] presents a new technique based on pattern
search (PS) optimization for estimating different solar cell
parameters. The proposed approach is tested and validated
using double diode model, in which the estimated
parameters are generated photocurrent, saturation current,
series resistance, shunt resistance, and ideality factor. Chin
[2] presents the implementation of a hybrid solution, i.e. by
incorporating the analytical method with the differential
evolution (DE) optimization technique. Three parameters,
i.e. generated photocurrent, saturation current of the first
diode and shunt resistance are computed analytically, while
the remaining ideality factors, saturation current of the
second diode and s więcej » Czytaj za darmo! »
Light plays a very important role in a human life,
especially artificial light allowing work and perform any
activities after dark. Glare is one of the most important
lighting quality parameter. It is accompanying the process of
vision that affect human visual comfort, wellbeing and
performance. It could be also the indirect reason of
accidents at workplaces and other illuminated public and
private areas. Depending on the type of glare (discomfort,
disability, blinding) the accompanying risk is of different
level [1]. International standards and CIE documents define
rules for discomfort glare assessment and application of
relevant index: Unified Glare Rating (UGR) for indoor
workplaces [2, 3, 4]. Additionally the development of
application of imaging luminance measuring device (ILMD)
allows for practical measurement of UGR.
The formula for UGR determination and related
requirements for maximum limit values of UGR are known
for many years. However the studies concern glare
assessment are still being carried out. They concern both
exploration for a new glare metrics and development of new
measurement methods for objective glare assessment.
It is worth noting at this point that the measurement of
glare refers to two independent issues:
 measurement under real conditions in order to assess
the glare, based on UGR determination,
 measurement for testing glare perception under different
glaring conditions and for the development of
measurement methods.
Conditions and rules of both issues of glare measurements
are different.
Despite the passage of many years from the beginning
of glare research, no standard of conducting laboratory
experiments was proposed. Each researcher conducts
study according to his own original method and his own
procedures, using equipment available in his own
laboratory. This is due to the variety of factors affecting
glare and the complexity of the research process. It is also
difficul więcej » Czytaj za darmo! »
Rosnąca świadomość społeczeństwa w zakresie
redukcji emisji spalin i hałasu spowodowała poszukiwania
alternatywnych rozwiązań w stosunku do paliw
konwencjonalnych, w szczególności w dziedzinie
transportu. Należy wspomnieć, iż problem został
zauważony także przez europejskie organy władzy, które w
2014 roku wydały dyrektywę 014/94/UE z dnia 22
października 2014 r. w sprawie rozwoju infrastruktury paliw
alternatywnych [1]. Zobowiązuje ona kraje członkowskie do
ustanowienia krajowych ram polityki rozwoju infrastruktury
paliw alternatywnych. W związku z tym, Rada Ministrów w
Polsce przyjęła dnia 29 marca 2017 r. Krajowe ramy polityki
rozwoju infrastruktury paliw alternatywnych [2].
Wprowadzają one założenia funkcjonowania transportu
opartego na paliwach alternatywnych tj. energii
elektrycznej, gazie ziemnym i wodorze. Jednym z
kluczowych postanowień zawartych w Krajowych Ramach
polityki rozwoju infrastruktury paliw alternatywnych [2] jest
stworzenie regulacji prawnych i wprowadzenie obowiązku
wykorzystywania pojazdów niskoemisyjnych przez
przedsiębiorstwa realizujące usługi publiczne. Należy
bowiem pamiętać, że rozwój elektromobilności oraz wzrost
liczby pojazdów zasilanych m.in. gazem ziemnym nie
dotyczy wyłącznie samochodów osobowych, ale także
autobusów elektrycznych, funkcjonujących w ramach
transportu publicznego na terenie gmin. Powyższe
zagadnienie zostało zawarte w Ustawie z dnia 11 stycznia
2018 roku o elektromobilności i paliwach alternatywnych [3]
(zwanej dalej Ustawą). W niniejszym artykule poddano
analizie wyłącznie, wykorzystanie w ramach transportu
publicznego pojazdów elektrycznych.
Zgodnie z art.36 ust.1 Ustawy, każda jednostka
samorządu terytorialnego, zamieszkana przez co najmniej
50 tysięcy osób, będzie zobligowana do posiadania w swej
flocie transportu zbiorowego 30% autobusów
zeroemisyjnych. Realizacja tak postawionych celów jest
wyzwaniem dla lokalnych organów administracji,
operatorów transportu publ więcej » Czytaj za darmo! »
Among the perspective acoustoelectronic components
with the surface acoustic waves (SAW) there are in addition
to the bandpass filters also delay lines (DL) and resonators,
which are used as selective elements of oscillators with
harmonic oscillations. The main advantage is their small
size and low weight, high mechanical strength, low
sensitivity to vibration as well as the possibility to make the
oscillators without the use of inductor. This is what
guarantees their manufacturing perspective and wide range
of use in measuring of electric and non-electric variables, in
radio electronics, telecommunications, and introduces the
necessity of elaboration of questions concerning to their
theory and manufacturing.
In the present paper it is elaborated the theory of an
asymmetrical delay line with interdigital transducer (IDT)
with diluted electrodes.
Synthesis of Asymmetrical Delay Line
An asymmetrical delay line has input IDT with a small
number of electrodes (i.e. broadband), and output IDT with
a large number of electrodes (i.e. narrowband). Module
characteristic can be close to the synchronous frequency
sufficiently accurately approximated by the function of sinx/x where x = N(f-f0)/f0 When increasing the number of
electrodes IDT however, there is a strong signal caused by
reflections from the edges of the electrodes, which
substantially impairs the delay line properties and at the
same time of the whole oscillator [1[. To suppress the signal
we partly remove in the narrowband IDT the electrodes (i.e.
"diluted" - divided into groups IDT). A similar problem
arises in the synthesis of the filter with a narrow and very
narrow pass band f3/f0 = 0,1 to 0,5 % (n. On the contrary,
the methods of synthesis of filters with SAW are accurate at
a relatively wide pass band f3/f0 = 1 to 30 %).
Frequency and Time Characteristics of the Individual
Groups of Electrodes in IDT with Diluted Electrodes
The diluted IDT refers o więcej » Czytaj za darmo! »
Renewable energy application like the solar cell, wind
turbine..., has expanded in the last decade especially in
isolated areas like Sahara in Algeria where there is a great
solar resource and a modest wind potential. The prime
renewable sources disadvantages are uncontrollable and
unpredictable in nature. Thus it is difficult to generate
require quantity of power to fulfill load demand and also the
generated power contain frequency/voltage variations.
Hybrids renewable energy system utilizes two or more
energy sources [1-4], usually solar along with wind sources
because its abundance in nature and both can complement
each other [5]. The subsystems are connected into a DC
bus to ensure adaptability of the energy; this method
doesn’t require synchronization [6-15]. However, adding
battery banks is necessary to satisfy a peak or temporary
period load demands. Battery based energy storage system
is widely used in standalone system because of its mature
technology, high efficiency, quick response, low cost and
improve the power-supply stability, quality and reliability [5,
12, 13, 15]. Both the energy systems are used to charge a
battery using bi-directional converter.
In this article, modelling, controls of hybrid system are
developed. The main control methods proposed are to track
the maximum power from the wind/solar energy source to
achieve much higher generating capacity factors then to
manage the power flow from these sources. A simple LC
filter is applied to eliminate the undesirable high frequency
harmonics.
The proposed standalone PV-wind-battery hybrid system
model in this paper has been modeled, designed, and
simulated using Matlab, results are presented to verify it
performance under various weather circumstances.
The general configuration of the system
This configuration is fit for stand-alone hybrid power
system. Wind and solar energy are converted into electricity
and then sent to loads or stored in batte więcej » Czytaj za darmo! »
Induction motors are nonlinear, coupled, multivariable
process. Nevertheless, they become more and more
appealing because of their reliability, robustness and low
cost or maintenance [3]. We built a globally stable nonlinear
control law with real effectiveness for the adopted strategies
and we describe a speed dependent observer. We based
the initial strategy on backstepping control. Here we design
the observer based on a nonlinear control law in order to
ensure the globally stability of the process observercontroller
system. The main contributions of the paper are
the following: First, we propose a new observer modified for
a special class of nonlinear systems applied to the induction
motor [1]. Secondly, the model is nonlinear in the frame
􁈺􀟙, 􀟚􁈻 without making the FOC. Third, the demonstration of
global stability (system-controller-observer). Lastly,
intensive simulations in different conditions are performed
to show that the general strategy proposed is very satisfied.
We organize the paper as follow: we present in Section 2
the induction motor model. In Section 3, we present a
nonlinear observer, an application to the induction motor,
the control algorithm and the global stability proof. In
Section 4, we give simulation results and comment on them
with implementation in Matlab-Simulink.
Modeling of the induction motor
The model used is a classical induction model of Park in
a frame 􁈺􀟙, 􀟚􁈻 fixed to stator, given by [1]:
(1) 􀝔􁈶 􀵌 􀝂􁈺􀝔􁈻 􀵅 􀝃􀝑
with: 􀝔 􀵌 􀵣􀝅􀯦􀰈, 􀝅􀯦􀰉, 􀟮􀯥􀰈, 􀟮􀯥􀰉, 􀟗􀵧􀯍 , 􀝑 􀵌 􀵣􀝑􀯦􀰈, 􀝑􀯦􀰉􀵧􀯍
Here 􀝔 con więcej » Czytaj za darmo! »
The power system consists of generating units,
transmission lines and distribution networks. The
transmission network is considered as the backbone of the
electric power system that connecting the power plant
center with the load center. In general, the transmission line
carries an electric current that reach hundreds of
kilometers. The entire transmission system is interrelated
due to economic reasons, security and reliability which is a
transmission line requirement based on system planning
[1]. Every time the generating unit is added to the system,
there is a need for a transmission line to transfer power
from the generating station to the load center. But the
longer the transmission line is used, the greater the
electrical power losses in the transmission line so that the
electrical power that reaches the destination has been
reduced which causes the transmission line efficiency to be
low and the transmission line voltage regulation becomes
high. To avoid this, the option is to increase the voltage on
the transmission line from high voltage level to extra high
voltage.
Therefore, one of the efforts to reduce electric power
losses and improve the quality of stress in the province of
South Sulawesi, one of the provinces in the country of
Indonesia, or often called the South Sulawesi system, is
insertion of 275 kV transmission network. In addition to
these reasons, the application of the 275 kV transmission
line is to connect power plants in the area of renewable
electricity to the load center in South Sulawesi, namely the
City of Makassar (the capital of South Sulawesi province).
South Sulawesi has many primary energy sources,
especially in the form of hydropower which can be
developed into hydroelectric power plant. Hydropower
potential that can be developed into around 1996 MW [2].
Indonesian, especially South Sulawesi, is on the equator
line having a tropical climate, precisely the wet tropical
climate. This is also więcej » Czytaj za darmo! »
The operating cost of a power plant mainly depends on
the fuel cost of generators which is minimized via economic
dispatch. The Economic Dispatch (ED) problem is one of
the fundamental issues in power system operation. The
main objective is to reduce the cost of energy production
taking into account transmission losses while satisfying
equality and inequality constraints. The rational distribution
of economic load between running units can lead to
significant cost savings making it important to research the
economic dispatch problem.
Several classical methods, such as the lambda iteration
method [1], quadratic programming [2], the gradient method
[3], dynamic programming [4], linear programming [5], and
nonlinear programming [6] have been applied to solve ED
problems. However, these methods are not feasible in
practical power systems owing to the non-linear
characteristics of the generators. Solutions can be limited to
achieving a local optimum which leads to less desirable
performance. In addition, these methods often use
approximations to limit complexity. Recently, a number of
researchers have used meta-heuristic optimization
techniques, which are unlike conventional mathematical
techniques, to solve ED problems in power systems.
Different meta-heuristic approaches have proved to be
effective with promising performance, such as a Genetic
Algorithm (GA) [7]-[9]. Such methods have been inspired by
the Darwinian law of optimal survival of a species, Particle
Swarm Optimization (PSO) [10]-[12] inspired by the social
behavior of bird raising or fish production, Ant Colony
Optimization (ACO) [13]-[14] inspired by food habits in an
ant colony, and by Tabu Search (TS) [15] as a way to build
a better foundation from prior knowledge. This latter method
records previous answers and forbids the new solution to
converge at the same point for different input data. Other
methods to be used include the Cuckoo Search Algorithm
(CSA) [1 więcej » Czytaj za darmo! »
In a DC glow discharge, the electric field is
homogeneous in the inter-electrode space. The ions striking
the cathode create secondary electrons. The electron
avalanche creates much electron that ions but electrons
being 100 times faster than ions, they drift quickly to the
anode where they are absorbed. The ions having a lot of
inertia accumulate in the inter-electrodes space, then the
number of ions accumulates increases and from an
accumulation threshold, the electric field is no longer
homogeneous while it decreases on the side anode, which
has the effect of slowing the electrons that drift towards the
anode. The process continues until the electric field at the
anode vanishes. The electrons can no longer pass freely to
the anode and are considerably slowed down. The electron
number density increases until to equal of the density of
ions. A plasma is formed near the anode. The number of
charged particles increases and the plasma extends from
the anode to the cathode. The extension of the plasma
compresses the region of strong field towards the cathode.
These phenomena continue until the creation of charged
particles is equilibrate (creation=losses). Two regions
appear, the sheath and the plasma.
The majority of electric discharge in gases (plasma) are
built upon the Boltzmann equation. In principle, the
combination of the Boltzmann equation, together with the
Maxwell equations, needed for computation of the
electromagnetic field, describes the physics of many
discharges completely provided that this set of equations is
equipped with suitable boundary conditions. In practice,
however, the Boltzmann equation is unwieldy and cannot
easily be solved without making significant simplifications.
Fluid models describe the various plasma species in
terms of average hydrodynamic quantities such as density,
momentum and energy density. These quantities are
governed by the first three moments of the Boltzmann
equation: continuity więcej » Czytaj za darmo! »
High performance and specific power of HTS electrical
machines make them the most promising in the way of
develop of future electrical aircraft, high speed transport
systems, wind turbines and etc [8, 9]. Design of HTS
machine with HTS windings is the most interesting in case
of high specific output parameters. In this paper fully HTS
electrical machine with silent-pole rotor is described.
Analytical expressions for the distribution of magnetic
fields in the active zone of a fully HTS electrical
machine.
The design scheme of a multipolar salient-pole
synchronous electrical machine with HTS windings on a
magnetically soft rotor core is shown in Figure 1. In general,
the stator winding can have different configurations and
vary in the number of phases, slots, shortening, distribution,
etc. To determine the analytical solution for the problem, the
armature winding can be replaced by an equivalent current
layer at the bore diameter. In particular, this approach was
used in the studies of electrical machines with bulk HTS
elements [1,2] and HTS windings [3, 4, 7].
Fig. 1. Design scheme of an electrical machine with a
ferromagnetic rotor and HTS windings
It is possible to use the superposition of the fields
created by the currents in excitation and armature windings
with the assumption of the constancy of relative magnetic
permeability in ferromagnetic sections. The parameters of
the machine under consideration are determined on the
basis of approaches described earlier in [1, 4]. Therefore, in
this paper obtained expressions take into account the
relative magnetic permeability of HTS windings which can
differ from [1], the magnetic properties of the salient-pole
rotor can be taken into account only without saturation.
The distribution of magnetic fields is described on the
basis of Maxwell's equations with the following conditions
on the boundaries of areas with different magnetic
permeabilities [5].
To set the problem of cal więcej » Czytaj za darmo! »
Próbkowanie ortogonalne sygnałów harmonicznych
Zadany sygnał harmoniczny [1,2,3]
(1) y t   2 Y cos t  ΣY 
ze swoją reprezentacją zespoloną
(2) 1 2 Y |Y | e jΣY  Y  jY
ma pobierane próbki y(0), y(3/2). Między
współrzędnymi liczby zespolonej a próbkami łatwo odkryć
następującą relację
(3) 1
3
2 2
1 (0)
2 ( )
Y y
Y y 
   
    
   
Próbki pobierane są w odstępie kątowym
2
4

,
dlatego próbkowanie to zostanie nazwane ortogonalnym.
Liczbę zespoloną Y można przedstawić w postaci 2-
wektora, albo równoważnie w formie 2x2 macierzy:
(4) 1   1 2
2 2 1
Y Y Y
Y Y
Y Y Y
    
     
   
W szczególności, gdy 1 jest jednostką rzeczywistą a j
jednostką urojoną, to znaczy:
1 0
, j=
0 1
1
   
    
   
  1 0
0 1
1
 
   
 
1 - macierz jednostkowa rzeczywista
  0 1
1 0
j
  
   
 
J &&
- macierz jednostkowa 'urojona'
Operację [] nazywa się matrycyzacją liczby zespolonej,
a operację odwrotną []-1 rewektoryzacją.
Relacja sprzężenia daje:
(5) * 1 *  
2
' Y
Y Y Y
Y
 
      
Gdzie znak []' znak transpozycji macierzy. W
szczególności
J *  J
Działanie mnożenia liczb zespolonych
Definiuje się więcej » Czytaj za darmo! »
Pomimo rozwoju sposobów modelowania polowego
silników indukcyjnych, nadal w wielu zastosowaniach
wykorzystywane są modele obwodowe. Są one znacznie
prostsze, łatwiejsze do wykorzystania i dostarczają
bezpośrednich informacji dotyczących przebiegów prądów,
momentów i prędkości w ustalonych i nieustalonych
stanach pracy silnika.
W związku z długoletnim okresem rozwoju teorii
dotyczącej modelowania obwodowego, stosowane modele
są dobrze rozpoznane i sprawdzone. Istnieją nawet
programy - takie jak ATP czy Simulink - oferujące gotowe
bloki zawierające model silnika, który można
wykorzystywać w swoich aplikacjach. Jednak w przypadku
modelowania rozbudowanych układów elektromechanicznych,
konieczne jest dodanie do modelu silnika
równań opisujących zachowanie pozostałych członów
układu, które trzeba przystosować do wybranego środowiska
programistycznego. Ponadto gotowe modele
zawierają pewne ograniczenia czy uproszczenia, niektóre
trudne do ścisłego rozpoznania, które mogą nie być skorelowane
ze sposobem opisu pozostałych elementów systemu
elektromechanicznego. Dlatego wielu badaczy nadal
preferuje wykorzystanie własnego modelu silnika, w postaci
układu równań różniczkowych i algebraicznych [20].
Pomimo rozwoju teorii obwodowego modelowania
silników indukcyjnych, nadal występują problemy z
właściwym wyznaczeniem wartości parametrów schematu
zastępczego maszyny, które stanowią dane do symulacji.
Wykorzystywanych jest do tego celu wiele różnych metod,
różniących się stopniem komplikacji obliczeń i zakresem
wymaganych danych. Niestety wyniki otrzymane różnymi
metodami różnią się dość znacznie, a to wpływa na duże
różnice pomiędzy uzyskiwanymi wynikami symulacji.
Najprostsza z metod wykorzystuje dane katalogowe
silnika [9], ale znane są różne jej odmiany [12]. Metoda
pomiarowa opiera się na znajomości wyników próby biegu
jałowego i zwarcia [14]. Przy projektowaniu silnika, jego
parametry wyznacza się z dość skomplikowanych wzorów,
więcej » Czytaj za darmo! »
Wprowadzenie
Od roku 2008 na rynku dostępne są nowoczesne
tranzystory JFET mocy (Junction Field-Effect Transistor)
wykonane z węglika krzemu (SiC), które w porównaniu do
klasycznych tranzystorów krzemowych charakteryzują się
na przykład wyższymi dopuszczalnymi wartościami prądów
oraz napięć zaciskowych, a także krótszymi czasami
przełączania. Z tego względu wymienione elementy
znajdują zastosowanie głównie w energoelektronicznych
układach kluczujących mocy [1-3].
Niezbędnym narzędziem inżyniera-konstruktora
układów elektronicznych są odpowiednie programy
komputerowe przeznaczone do projektowania i analizy
układów elektronicznych, zawierające wiarygodne modele
elementów elektronicznych, w tym również przyrządów
półprzewodnikowych. Na rynku dostępnych jest wiele
programów tego typu, a jednym z najpopularniejszych jest
SPICE (Simulation Program with Integrated Circuit
Emphasis) [4] oferowany przez wielu producentów
oprogramowania w zróżnicowanych wydaniach. Na
przykład, program PSPICE firmy Cadence Design Systems
Inc. posiada obszerną bibliotekę modeli elementów
biernych, a także modeli przyrządów półprzewodnikowych,
w tym modelu Shichmanna-Hodgesa [4] krzemowego
tranzystora JFET.
W pracy oceniono przydatność wymienionego modelu
pod kątem wyznaczania wybranych charakterystyk
tranzystora JFET wykonanego z węglika krzemu. W tym
celu wyniki symulacji porównano z autorskimi wynikami
pomiarów charakterystyk statycznych tranzystora SiC-JFET
o symbolu SJEP170R550 firmy SemiSouth [5]. Oceniono
wpływ temperatury otoczenia na parametry i charakterystyki
wymienionego przyrządu półprzewodnikowego.
Z uwagi na zaobserwowane rozbieżności pomiędzy
wynikami symulacji i pomiarów, zaproponowano
modyfikacje wybranych zależności analitycznych
wbudowanego modelu Shichmanna-Hodgesa tranzystora
JFET wpływające na zwiększenie jego dokładności, co
potwierdzono uzupełniającymi wynikami weryfikacji
eksperymentalnej.
Postać modelu tranzystora JFET więcej » Czytaj za darmo! »
Electricity produced from renewable energy sources
plays a greater role in the energy balance of our country
from year to year. The disadvantage of these solutions is
the need for the presence of appropriate atmospheric
conditions, so that energy production is possible and
profitable at all. The requirements for environmental
protection imposed by the European Union enforce special
interest in RES installations. Hydropower is one of the most
commonly used renewable technologies not only in Poland
but also in the world. In small hydropower plants due to
their simplicity, undoubtedly very good operating properties
and the price, usually as generators, are used induction
machines. Attachment of more and more scattered energy
sources creates new problems that have not occurred so
far. Therefore, this paper presents the analysis of hazards
resulting from the inclusion of induction generators
operating in small hydroelectric power stations [4]. The
basis of the analysis were computer simulations carried out
in the EMTP-ATP program.
Power system and control of small hydropower plants
Each element of the power system should be designed
in such a way that it does not pose a threat to the work of
the system itself and the people who serve it. Therefore, it
is necessary to install a number of electrical devices in them
for safety during normal operation and in emergency
situations. Usually, in the power plant building, an electrical
switchboard is installed where all the necessary electrical
devices are installed [2]. The single-line diagram of a
hydroelectric plant with an asynchronous generator is
shown in figure 1. Figure 1 shows only the main elements of
the tested system.
An indispensable element of every hydropower plant
working with an induction generator is reactive power
compensation. Capacitor banks should be chosen so as to
minimize the risk of self-ignition. For t więcej » Czytaj za darmo! »
Electrical equipment repair and service plants perform
various types of tests of examined equipment such as
power transformers, generators, motors etc. There are often
few hours tests with the strictly defined, required for the
specific test voltage. The specificity of performed tests
requires that it is possible to continuously adjust voltage in
the range of tens of kilovolts. At the same time the voltage
change on the test bench due to changes in load
parameters should be compensated by the automatic
control system.
These requirements can be met by the use of the
synchronous generator with automatic, follow-up excitation
circuit current control system cooperating with a suitable
high-voltage transformer. The presented machines set with
automatic control system was implemented in one of the
Polish electrical equipment repair and service plant to
supply high-voltage test station.
System idea
Figure 1 shows the block diagram of the synchronous
motor-synchronous generator machines set with
microprocessor-controlled power supply excitation units of
both machines [1].
At the steady synchronous operation the synchronous
machine can be described by a system of equations, which
using per unit values is in the form [2-4]:
(1)
więcej » Czytaj za darmo! »
Fizyczny falowód optyczny (falowód włóknisty,
światłowód) jest złożony z dwóch warstw, które
charakteryzują się różnymi współczynnikami załamania.
Jest to więc cienkie wielowarstwowe włókno dielektryczne
[1,2], którego wewnętrzna, centralnie położona warstwa
szkła zwana rdzeniem jest pokryta ściśle przylegającą
warstwą szkła zwaną płaszczem. Rdzeń ma
znormalizowaną średnicę mieszczącą się w przedziale
od 5 μm do 11 μm i charakteryzuje się wyższym
współczynnikiem załamania - n1 niż warstwa otaczająca -
płaszcz o średnicy 125 μm i współczynniku załamania - n2
[1,3], aby na zasadzie całkowitego wewnętrznego odbicia
można realizować w nim transmisję.
We włóknach światłowodowych można dodatkowo
wyróżnić trzecią warstwę, która stanowi powłokę ochronną,
nazywaną pierwotną warstwą ochronną bądź pokryciem
zewnętrznym. Nadaje ona włóknom wytrzymałość
mechaniczną i stanowi ochronę przed mikropęknięciami, na
które narażona jest powierzchnia włókna, zwłaszcza przy
stykaniu się z innymi materiałami. Powłoka ochronna jest
nakładana w czasie procesu wyciągania włókna. Włókno
posiadające te trzy warstwy (rys. 1.) posiada łączną
średnicę 250 μm [3,4].
Rys. 1. Budowa włókna światłowodowego [wyniki własne]
Podstawowym materiałem, z którego wykonywane są
światłowody jednomodowe, jest krzemionka SiO2, która jest
domieszkowana w celu otrzymania odpowiedniego
współczynnika załamania. Stosuje się domieszki takich
pierwiastków jak: bor (B), fluor (F), glin (Al), fosfor (P),
german (Ge), tal (Tl), i inne [2,5]. W optoelektronice
światłowodowej można wyróżnić dwie techniki realizacji
jednomodowych włókien światłowodowych:
 rdzeń wykonany z czystej krzemionki SiO2, natomiast
płaszcz wykonany jest ze szkła typu SiO2-B2O3 lub
SiO2-F2, które stanowi materiał o współczynniku
załamania mniejszym prawie o 1% [2,6]. Rozwiązanie to
jest stosowane bardzo rzadko,
 płaszcz wykonany jest z czystej krzemionki SiO2,
natomiast więcej » Czytaj za darmo! »