Miesięcznik ISSN 0033-2089, e-ISSN 2449-9528 - rok powstania: 1960
Czasopismo Stowarzyszenia Elektryków Polskich (SEP) wydawane przy współpracy Komitetu Elektronikii Telekomunikacji PAN
Development of metrology as a transition
from arbitrary measures to absolute standards.
Humanity has used originally random, arbitrary measures, anthropomorphic
as a rule, convenient for practice but caused large
errors in the standards themselves. However, there has always
been an idea of the need to find and use some more fundamental
natural standards. Such an opportunity was offered with the discovery
of the fundamental constants - the speed of light, Planck’s
constant, the elementary charge, the Boltzmann constant and
others as absolute natural quantities.
Consequently, physicists have begun offering different natural
systems of units based on these constants. In 1832 C.F. Gauss
proposed the idea of a mechanical system of units, which later,
after its modernization by W.Weber, became widespread. From
the point of view of the constants, the meaning of this system is
the reduction of units of nonmechanical quantities to the three
mechanical units by the choice of coefficients in laws, in which
mechanical action is manifested, equal to 1 (for example, the
choice of the coefficient ke = 1 in Coulomb's law) 2
2 1r
F k q q e = · . In
1870 and 1873 J.C. Maxwell proposed two systems of units, from
which the two classes of modern natural systems of units - atomic
and gravitational [1, 2] - were originated. Systems proposed
by J. Stoney (c, G, e; ke=1) in 1874/1881 and M. Planck (c, G, h,
k) in 1899/1906 should be attributed to the gravitational system
(G=1), and systems of D.Hartree (., e, me; ke=1), A. Ruark (c, .,
me; ke=1), U.Stille (c, h, e, mp, k) and electronic system (., e, me;
ke=1) to the atomic ones (mass of some elementary particle as
unit of mass) [3-10]. Planck values were forgotten and rediscovered
again in 1950s as the limits of applicability of modern physical
theories. Hartree system is widely used in atomic physics and
the system (c, ., eV; ke=1/4p) arisen from the system of Ruark is
widely use więcej »
Podczas prezentacji "90 lat Philipsa w Polsce. Innowacyjne rozwiązania
- lepsza jakość życia", w Warszawie, 8 maja br., została
przedstawiona największa na świecie, dostępna komercyjnie, instalacja
oświetleniowa złożona z diod organicznych (OLED) - interaktywna
ściana LivingShapes. Składa się ona z 72 paneli
OLED, zbudowanych z 1152 diod OLED Lumiblade. Każdy panel
wyposażony jest w zatrzask, do łączenia z innymi, tworząc interaktywną
instalację OLED. Można ją wykorzystać do oświetlenia
biur, poczekalni, lobby hotelow więcej » Czytaj za darmo! »
The current definition of length unit, accepted by 17th General
Conference on Weights and Measures (CGPM) in 1983, is related
to the unit of time . second. According to this definition, the
unit of length . 1 m . is the length of the path travelled by light in
vacuum in 1 / 299 792 458 seconds. The International Committee
of Weights and Measures (CIP M) has established an extended
list of quantum radiation sources, recommended to the practical
. .mise en pratique?h . realization of the new definition. This list
includes both radiation of various types of lasers and of spectral
lamps. It is successively expanded. As the new definition of the
meter does not provide the way of length measurement, the CIP M
added three practical methods for its realization [1.4]:
1) by means of the length l of the path travelled in vacuum by
a plane electromagnetic wave in a time t; this length is obtained
from the measured time t, using the relation:
(1)
where: t . measured time, co . speed of light in vacuum 299792458
m/s.
This method is possible to apply only in measurement of large
distances, e.g. distance from the earth to the moon.
2) by means of the wavelength in vacuum ?É of a plane electromagnetic
wave of frequency f; this wavelength is obtained from
the measured frequency f using the relation:
(2)
where: f . measured frequency, co . speed of light in vacuum
299792458 m/s.
This method is based on the measurement of the a light source
frequency by comparing it with the frequency of cesium clock
used in the definition of the unit of second and then determining
the wavelength according to the mathematical formula. The
wavelength is used as a reference in length measurement.
3) by means of one of the radiations from the list mentioned
above (CIP M recommendation), whose stated wavelength in vacuum
or whose stated frequency can be used with the uncertainty
shown, provided that the given specifications and accepted good
practice are follow więcej »
Skaningowy mikroskop tunelowy (ang. Scanning Tunneling Microscope,
STM) zosta. skonstruowany przez Binniga i in. w 1982 r.
[1]. Jest on urz.dzeniem powszechnie stosowanym do bada. powierzchni.
STM wraz z technikami pokrewnymi, takimi jak: STM
zmiennopr.dowy [2], skaningowa spektroskopia tunelowa [3],
skaningowa potencjometria tunelowa STP (ang. Scanning Tunneling
Potentiometry) [4], czy STM w cieczy [5] pozwala na badania
w skali atomowej powierzchni przewodz.cych. Powoduje to, .e
dotychczas STM by. szeroko stosowany w warunkach ultra wysokiej
pro.ni UHV (ang. Ultra High Vacuum), w powietrzu za. badania
ogranicza.y si. najcz..ciej do obserwacji grafitu lub z.ota.
Oceniamy, .e odkrycie w 2004 roku przez Andre Geima i Konstantina
Novoselova grafenu [6], monowarstwy z.o.onej z atomow
w.gla tworz.cych struktur. heksagonaln., wywo.a.o ponowne
zainteresowanie mikroskopi. tunelow. jako technik. pozwalaj.c.
na atomowe obrazowanie powierzchni w powietrzu.
W pracy przedstawiono mikroskop STM wykonany w Zak.adzie
Metrologii Mikro- i Nanostruktur, Wydzia.u Elektroniki Mikrosystemow
i Fotoniki Politechniki Wroc.awskiej (ZMMiN WEMIF PWr).
Mikroskop ten pracuje w powietrzu, w temperaturze pokojowej.
Urz.dzenie to jest przeznaczone g.ownie do badania struktur
grafenowych przetwornikow elektromechanicznych, co narzuca.o
specjalistyczn. architektur. systemu. Dotyczy to mi.dzy innymi
stworzenia mo.liwo.ci obrazowania z atomow. rozdzielczo.ci.
zawieszonych p.atkow grafenowych pe.ni.cych funkcj. membrany
lub te. belki dwustronnie zamocowanej, z jednoczesn. mo.liwo.ci.
ich polaryzowania oraz pobudzania do drga.. Opisano
poszczegolne elementy, z ktorych sk.ada si. ca.y system pomiarowy
i steruj.cy. Ponadto przedstawiono wyniki niektorych bada.
przeprowadzonych na mikroskopie wykonanym w ZMMN WEMIF
PWr.: wysoko zorientowanego grafitu pirolitycznego HOP G (ang.
Highly Oriented Pyrolitic graphite) i grafenu na pod.o.u 6H-SiC.
Na zako.czenie zosta.y p więcej »
Nanometrology approaching the sphere of quantum mechanics
has a lot of limits connected with indirect definition of base. Also
necessity of creating of new measurement procedures appears,
because current rules of defining the measurement uncertainty
cannot be exploited without modification. In Kelvin Probe Force
Microscope (KFM), working in Single-Pass mode, the topography
and also surface potential are acquired using a multi-frequency
technique. The cantilever is excited simultaneously with two AC
modulation signals at different frequencies; the first one is used
for mechanical excitation to measure topography and the second
one (usually with a much lower frequency), is for electric modulation
to measure surface potential. The obtained KFM image
reveals important information about surface. It can be used to
detect dopant concentration in semiconductor materials [2], band
bending, molecular dipole orientation in organic thin films, etc.
The principle of KFM is based on the measurement of electrostatic
force between the sample surface and the cantilever tip (Fig. 1).When a DC bias (VDC) and a small AC modulation signal VAC
sinůt are applied (between tip and sample), the non-uniform carrier
distribution occurs in the system leading to the increase of
so-called contact potential difference (VCP D) and the induced capacitance
force is:
F(z) = FDC + Fů + F2ů (1)
The total voltage is therefore equal to:
(2)
where:
(3)
(4)
(5)
and C - is a total tip-sample capacitance, z - distance between
tip and sample.
It is evident from the Fů term in Eq. 1 that Fů depends linearly
on VDC and becomes zero when VDC = VCP D. It seems that surfacepotential can be measured directly by nullifying the resonance frequency
shift, caused by the AC modulation (FM-KFM). But careful
examination of the signal reveals, however that the force never
actually reaches zero, instead it reaches a certain minimum value
at the bias close to contact potential diff więcej »
The time scales TAI and UTC are the designated scales at the
International Bureau of Weights and Measures (BIP M, fr. Bureau
International des Poids et Mesures), based on the measurement
data obtained from local and remote comparison of several hundred
atomic clocks from 70 time and frequency laboratories located
around the world [2]. This means that the TAI and UTC scales
are not physical time scales.
In 1975 the General Conference on Weights and Measures recommended
that the basis for determining the local time in each
country was the atomic time UTC shifted by the total number of
hours corresponding to the local time zone. Such arrangements
provide a guarantee of uniformity among timing systems. Local
time scales, sometimes called UTC (k), are physical realizations
of UTC by National Metrology Institutes (NMIs). Officially in Poland
since 2004, this has been the function of the Central Office
of Measures (GUM, pl. Główny Urząd Miar), which maintains the
scale of UTC (PL). UTC (k)s form a basis for mapping the units of
measurement of time and frequency, and the designation of the
official time in the country. The GUM, as with most of the NMIs
implementing national time scales UTC (k), uses commercial cesium
atomic clocks HP 5071A (now Symmetricom 5071A), which
are characterized by an accuracy of 10-12 and a stability of 10-14.
This ensures the highest stability of the UTC (k) and its compliance
with UTC and enables the establishment of a metrologically
reliable reference for time and frequency measurements in the
country. This forces an appropriate correction to be made on the
output signal of the UTC (k) generation system by the control device
(microphase - stepper) [2]. A part of the system which executes
UTC (PL) is presented in Figure 1, station 1, where F. D. is
a frequency divider.The actual corrections of the UTC (k) in relation to UTC are
determined by post-processing of the five-day intervals by the
BIP M. So far, więcej »
A similarity and difference between coherent phenomena in
quantum mechanics and electrodynamics by the example of
electromagnetic wave in 1D- metamaterial and quantum particles
in 1D-solid are considered in this contribution. Note that formal
resemblance of mathematical description of definite quantum mechanical
(QM) and electrodynamic (ED) processes seem to give
a lot of possibilities to simulate the quantum processes with more
simple macroscopic electrodynamic models (photonic crystals,
surface states, backward waves etc.). However, a principal difference
in nature of phenomena belonging to both fields of science
makes this simulation rather formal though it retains the solid state
terminology. Below we consider several examples of coherent
phenomena in electrodynamics of metamaterials to realize two
main ideas:
1 . we demonstrate certain ?gnonclassical?h effects and the applicability
of ?gquantum?h measurements technique at macroscopic
level;
2 . we show the possibility to measure characteristics parameters
of composite metamaterials using ?gnonclassical?h measurement
technique.
We stress now a very important feature of metamaterials. As
we can tailor materials with prescribed properties, we are able not
only to demonstrate coherent quantum effects on macroscopic
level but create radically new effects and new technology based
on these effects.
Formal resemblance of Maxwell and Schrodinger
equations
To start we compare the known Maxwell equations, describing
propagation of electromagnetic field and Schrodinger equation for
non-relativistic particle. It is easy to see (from the Table) that formal
solution of both equations has the same form (the harmonics
function of time and coordinates).
However there is a difference . the dispersion relation in k?¨ free
space is linear in for electrodynamics and quadratic for quantum
mechanics. Therefore free space in the quantum mechanics
is always dispersive.
Nevertheless a strong więcej »
Czas propagacji cyfrowych układów scalonych, w tym zarówno
klasycznych układów CMOS (np. serii 74ACxx), jak i rekonfigurowanych
(ang. Complex Programmable Logic Device, CP LD) może
zmieniać się pod wpływem różnych czynników. Istotny wpływ na
czas propagacji tych układów mają ich temperatura oraz wartość
napięcia zasilającego [1-5]. Wzrost temperatury zwiększa czas
propagacji, a wzrost napięcia zasilającego powoduje skrócenie
tego czasu. Celowe jest opracowanie układu kompensującego,
stabilizującego czas propagacji układów scalonych przez zmianę
napięcia zasilającego proporcjonalnie do zmian temperatury tych
układów. We wcześniejszy pracach wykazano możliwość liniowego
powiązania wpływu zmian temperatury i napięcia zasilającego
w celu stabilizacji czasu propagacji [1]. Liniowa zależność
pomiędzy temperaturą stabilizowanych układów, a ich napięciem
zasilającym umożliwia budowę względnie prostych i tanich układów
kompensacyjnych, których koncepcję zgłoszono w Polskim
Urzędzie Patentowym [7]. Proponowane rozwiązanie może być
zastosowane zarówno w nowo projektowanych urządzeniach, jak
również umożliwia łatwą modyfikację układów zasilających istniejących
urządzeń, pozwalając na znaczne zwiększenie stabilności
czasów propagacji układów cyfrowych.
Proponowane rozwiązanie może znaleźć zastosowanie w cyfrowych
układach i przyrządach, szczególnie przeznaczonych do
precyzyjnych pomiarów czasu i częstotliwości oraz generowania
i transmitowania wzorcowych sygnałów czasu i częstotliwości wykorzystywanych
w technice pomiarowej, szczególnie w metrologii
czasu. Ponadto stabilizacja czasów propagacji może mieć istotne
znacznie w układach cyfrowych z uzależnieniem czasowym,
gdzie zmiany czasów propagacji zastosowanych układów mogą
być przyczyną hazardów.
Przy precyzyjnym pomiarze krótkich przedziałów czasu, dla
uzyskania dużej rozdzielczości pomiaru często stosuje się metodę
Verniera, będącą adaptacją zasady działania noniusza, leżącej
u podst więcej »
Systemy miar dawniej i dziś.W historii cywilizacji jednostki miary różnych wielkości fizycznych
traktowano początkowo rozdzielnie. Pierwszym był systemem
miar wprowadzony przez cesarza Chin Huang Ti około 2700 lat
przed naszą erą. Ten system miar był oparty na rozmiarach pręta
bambusowego i obejmował
jednostki długości, objętości i masy.
Jednostką miary długości w systemie Huanga był odcinek między
sąsiednimi węzłami pręta dojrzałego bambusa, jednostką objętości
- rozmiar komory wewnątrz pręta bambusa
między dwoma
takimi węzłami, a wzorzec masy stanowiła masa 1200 ziaren ryżu
(około 1200 ziaren mieściło się w jednostce objętości).
W 1832 r. Carl Gauss w pracy Die erdmagnetische Kraft auf ein
absolutes Maß zurűckgefűhrt zaproponował spójny system miar
zawierający jednostki miary: długości, masy i czasu. Jednostką
miary czasu była 1 sekunda definiowana jako część doby słonecznej.
W metrycznym systemie miar Gaussa jednostką długości był
1 milimetr, a jednostką masy 1 g. W późniejszych
latach Gauss
i Weber włączyli także wielkości elektryczne do proponowanego
przez nich układu jednostek miar. James Clarke Maxwell i William
Thomson określili założenia spójnego systemu miar złożonego
z jednostek
podstawowych (base units) i jednostek pochodnych
(derived units). Według tych założeń opracowano spójny układ
jednostek miar CGS (centymetr, gram i sekunda) z jednostkami
podstawowymi trzech wielkości
fizycznych: długości, masy i czasu
(wprowadzono go w 1874 r.).
Początek międzynarodowego systemu miar dała Konwencja
Metryczna z 1875 r., która zdecydowała o powierzeniu decyzji
w przyszłości w sprawach metrologii, w tym systemu miar, Generalnej
Konferencji Miar (Conférence Générale des Poids et Mesures)
oraz powołała Międzynarodowe Biuro Miar (BIP M). I. Generalną
Konferencję Miar (GKM) przyjęła w 1889 r. jednostki miary metr
i kilogram. Razem z sekundą utworzyły one system miar MKS.
Międzynarodowy system miar rozwijano i udoskonalano do więcej »
Traceability of measurement is based on hierarchical chain of calibration
services, that proves link between measurements and
International System of Units (SI). On top of this hierarchy primary
standards occurs. Primary standards are best known representation
of SI units. Modern physics discoveries gave opportunity to
build primary standards based on quantum effects. That type of
standards utilizes properties of quantum nature of physics phenomena
and links reproduced value of unit to physical constant.
Conventional values of this constant are worldwide approved
used in calculations of standard values without contribution to uncertainty
budget.
From the nature of quantum phenomena all quantum . based
primary standards have the same, highest status in traceability
chain. They can?ft be calibrated by more precise measurement
system. But there is a need to prove worldwide traceability. This
problem is solved by organization of comparisons.
Quantum based phenomena standards
of voltage and resistance
Laboratory of Electrical Quantities in Central Office of Measures
(GUM) in Poland uses two quantum based primary standards:
voltage standard and resistance standard.
For electrical voltage measurement such standard, which is
best representation of volt unit is Josephson Voltage Standard
(JVS). This measurement system utilizes AC Josephson Effect,
which is observed in Superconductor . Insulator . Superconductor
(SIS) structures called Josephson Junctions. In low temperatures
(typical metrology applications of Josephson effect uses
liquid helium as coolant which has temperature 4,2 K), voltage across
SIS structure, irradiated by microwave, can take only quantized
values U (1) where KJ . Josephson constant, f . microwave
frequency and n . order of the constant-voltage step.
(1)
Value of Josephson constant KJ (2), which is obtained from e
. elementary charge and h . Planck constant, is almost 484 THz/V
J więcej »
Ocena jako.ci sygna.ow synchronizacji sieci telekomunikacyjnej
jest istotnym elementem procesu utrzymania sieci. Prawid.owe
funkcjonowanie sieci jest bowiem uwarunkowane w.a.ciw. jako.ci.
sygna.ow synchronizacji taktuj.cych procesy zachodz.ce
w sieci. Sygna.y synchronizacji, zwane te. sygna.ami taktowania,
w okre.lonym punkcie sieci musz. spe.nia. wymagania (normy)
sformu.owane przez mi.dzynarodowe instytucje standaryzacyjne
[1.3]. Podstawowymi parametrami opisuj.cymi jako.. sygna.ow
synchronizacji s. dewiacja Allana (ADEV . Allan Deviation), dewiacja
czasu (TDEV . Time Deviation) oraz maksymalny b..d
przedzia.u czasu (MTIE . Maximum Time Interval Error). Warto.ci
estymat tych parametrow wyznacza si. na podstawie warto.ci
probek b..du czasu (TE . Time Error) b.d.cych rezultatem d.ugotrwa.ego
pomiaru ro.nic faz badanego sygna.u oraz sygna.u
odniesienia.
Efektywne wyznaczenie warto.ci parametrow sygna.ow
synchronizacji w istotny sposob wp.ywa na u.atwienie procesu
nadzoru i utrzymania sieci telekomunikacyjnej. Do tego
celu niezb.dny jest system pomiarowy wyposa.ony w modu.y
sprz.towe umo.liwiaj.ce pomiar warto.ci b..du czasu oraz
oprogramowanie umo.liwiaj.ce rejestracj. wynikow pomiaru
i obliczenia parametrow. Autorzy artyku.u uczestniczyli w opracowaniu
i wdra.aniu do eksploatacji elementow systemu wspomagania
synchronizacji sieci telekomunikacyjnej, w tym kolejnych
generacji systemow pomiarowych do badania jako.ci sygna.ow
synchronizacji [4, 5]. Systemy te umo.liwiaj. wykonanie pomiaru
b..du czasu oraz nast.puj.ce po pomiarze obliczanie warto.ci
parametrow na podstawie wynikow przeprowadzonego
wcze.niej pomiaru.
Istotnym u.atwieniem procesu oceny jako.ci sygna.ow synchronizacji
jest mo.liwo.. realizacji oblicze. warto.ci parametrow
badanych sygna.ow w czasie rzeczywistym, a wi.c podczas (a nie
po zako.czeniu) pomiaru ci.gu b..du czasu. Takie podej.cie do
analizy sygna.ow synchronizacji pozwala na .ledzenie bie..cej
warto.c więcej »
W niniejszym artykule rozważono możliwość opracowania i wykonania
wieloparametrycznego systemu czujnikowego do pomiarów
w czasie rzeczywistym, którego przeznaczeniem będzie
pomiar parametrów obiektów w ruchu, gdzie obiektem może być
urządzenie (maszyna) lub istota żywa. Przykładami rozwiązań
o których tu mowa są na przykład systemy czujnikowe stosowane
powszechnie w motoryzacji (tzw. komputery pokładowe),
które zbierają dane z wielu czujników i podejmują w sposób automatyczny
zaprogramowane decyzje. Laboratoria patologii ruchu
człowieka wykorzystują bardzo wyrafinowane narzędzia do pomiaru
i analizy ruchu pacjentów. Na podstawie danych z czujników
umieszczonych na ciele pacjenta i porównania ich do wzorca
zapisanego w bazie danych można stwierdzić jakiego rodzaju
patologią ruchu dotknięty jest pacjent oraz śledzić postępy w leczeniu.
Te dwa, pozornie odległe od siebie przykłady, są do siebie
bardzo podobne. Są to systemy wieloparametryczne, w których
wiele czujników przekazuje informacje do jednostki nadrzędnej,
w której z kolei dokonywane są obliczenia i analiza wyników. Co
więcej, możemy doszukać się zastosowania czujników tego samego
typu, np. czujniki przyspieszenia - w motoryzacji system
ABS, kontroli trakcji; w ocenie ruchu pomiar przyspieszeń kątowych
kończyn.
W ostatniej dekadzie popularność zyskują systemy do pomiaru
ruchu i behawioryzmu zwierząt. Wymienić tu można wiele systemów
[1-4], jednakże ich szczególną cechą jest to, że są one
przeznaczone do badań w warunkach laboratoryjnych. Rozwiązania
takie uniemożliwiają zatem zbadanie zachowania zwierząt
w warunkach naturalnych.
Celem autorów niniejszej pracy jest opracowanie uniwersalnego
systemu umożliwiającego pomiar wielu różnych parametrów
obiektu, przy czym rozwiązanie to musi być tanie oraz dostarczać
wyniki pomiarów w przetworzonej formie w czasie rzeczywistym.
Elementy systemu muszą być odpowiednio obudowane
aby umożliwić ich pracę w różnych warunkach. Cechą więcej »
Amplitudowo-fazowa monoimpulsowa estymacja kąta jest szeroko
stosowaną techniką lokalizacji obiektu w obrębie wiązki radaru.
Jest to metoda doskonale poznana i zbadana, a rozważania
analityczne, będące punktem wyjścia dla niniejszej pracy, prowadzone
były już w latach 70. XX wieku. Na przestrzeni lat zmieniają
się jednak tory odbiorcze oraz działające w nich algorytmy dążące
do poprawienia stosunku sygnału do szumu, czy też usunięcia
ech obiektów stałych. Celem pracy jest analiza właściwości
współczesnych torów przetwarzania stosowanych w rzeczywistych
systemach.
Przetwarzanie sygnału w metodzie amplitudowo-fazowej
odbywa się w dwóch kanałach: sumy oraz różnicy. Analizując
metodę przyjmuje się założenie, iż poziomy szumów pomiędzy
kanałami są wyrównane, jak również nie występuje korelacja
pomiędzy nimi.
W przypadku występowania zewnętrznego źródła zakłóceń,
obydwa te warunki mogą nie być spełnione. Problemem jest ustalenie,
jak zachowywać się będzie estymator położenia kątowego
w przypadku obecności zewnętrznego źródła zakłóceń. więcej »
Ostatnie lata charakteryzują się wzrostem zainteresowania systemami
biometrycznymi i ich wykorzystaniem w dziedzinach,
w których dotychczas stosowanie biometrii było zbyt kosztowne
lub poziom techniczny rozwiązań biometrycznych nie był wystarczająco
satysfakcjonujący.
Tab. 1. Przychody rynku biometrycznego w mln USD
Tabl. 1. Revenues of the global biometric market in USD Million
Prognoza
dla roku
Prognoza z roku
2007 2009 2012
2012 6982 5970 7590*
2014 9043 8566 10020**
2017 - 10882 13890***
2019 - - 14685****
Źródło: [1] * - [2],** - [3], *** - [4],**** - [5]
Tabela 1 pokazuje prognozy rozwoju globalnego rynku biometrycznego
w latach 2007-2012. Prognoza z 2007 r. okazała się
w świetle występującego dwa lata później kryzysu ekonomicznego
zbyt optymistyczna i w 2009 r. obniżono jej wartość średnio
o około 12%. Najnowsza prognoza (z 2012 r.) jest jednak korzystniejsza
nawet od tej pierwszej z 2007 r. i to o około 13%. Świadczy
to o tym, że mimo zapowiedzi nowego kryzysu, następuje
dalsze upowszechnienie zastosowań biometrii i warto przyjrzeć
się temu zjawisku dokładniej. Średni roczny współczynnik wzrostu
rynku biometrycznego dla pierwszej prognozy wynosił 30,4%
(dla lat 2007-2015), a dla drugiej 19,9% (dla lat 2009-2017).
Dla ostatniej prognozy, gdzie dane uzyskiwano z różnych źródeł,
osiągał on mniejsze wartości - w zakresie 14…19%, chociaż jedna
prognoza z tego samego roku [6] szacowała ten współczynnik
na 21% dla lat 2012-2014.
Tab. 2. Tempo zmian czynników przyspieszających rozwój biometrii
Tabl. 2. Drivers of the biometric market
Rok 2002 2006 2010
Cena przenośnego urządzenia identyfikacji
[USD] 15000 3000 1000
Średnia roczna obniżki [%] 49,5 31,6
Współczynnik fałszywego odrzucenia
(przy współczynniku fałszywej akceptacji
0,1%) [%]
20 1 0,3
Średnia roczna obniżki [%] 111 35,1
Tabela 2 podaje znalezione w literaturze ceny podręcznych
(ang. hand-held ) urządzeń identyfikacyjnych używanych w systemach
AFIS więcej »
Filtry aktywne są obecnie realizowane najczęściej w oparciu
o układy wzmacniaczy operacyjnych. Spośród różnych znanych
z literatury przedmiotu rozwiązań na szczególną uwagę zasługują
filtry aktywne pracujące w układzie Butterwortha [1]. W tym wypadku
w oparciu o jeden wzmacniacz operacyjny można zrealizować
filtry aktywne dolno- bądź górnoprzepustowe posiadające
dwa lub trzy bieguny, czyli zapewniające poziom tłumienia sygnału
w paśmie zaporowym w wysokości odpowiednio 40 lub 60 dB
na każda dekadę częstotliwości [2].
Chcąc uzyskać filtry aktywne o jeszcze większej stromości
charakterystyki w paśmie zaporowym, można zastosować kaskadowe
połączenie dwu- lub trójbiegunowych filtrów aktywnych
pracujących w układzie Butterwortha. Na przykład, stosując kaskadowe
połączenie dwóch dwubiegunowych filtrów Butterwortha
można otrzymać filtr czterobiegunowy, czyli zapewniający
tłumienie sygnału w paśmie zaporowym na poziomie 80dB na
każda dekadę częstotliwości [3]. Schemat ideowy tego rodzaju
kaskadowego filtra aktywnego został przedstawiony na rys. 1.Wyznaczanie transmitancji filtrów
kaskadowych
W celu realizacji właściwego doboru wartości pojemności kondensatorów
w przypadku kaskadowych dolnoprzepustowych filtrów
Butterwortha o parzystej liczbie biegunów należy w pierwszej
kolejności dokonać wyprowadzenia wzoru na transmitancję
dwubiegunowego dolnoprzepustowego filtra Butterwortha. Wzór
ten przedstawia się w następujący sposób:W przypadku k więcej »
Dynamiczny rozwój technologii i konstrukcji ogniw paliwowych
spowodował, że celowym jest rozważenie możliwości zastosowania
ich do wspomagania autonomicznych instalacji fotowoltaicznych.
Bazując na rozkładzie nasłonecznienia terenu Polski południowej
[1] można prognozować, że dla równomiernej produkcji
energii elektrycznej w poszczególnych miesiącach roku, ok. 70%
to energia pochodząca z modułów fotowoltaicznych, a pozostałą
część należałoby pozyskać z ogniw paliwowych.
Dla zagwarantowania tej samej ilości energii elektrycznej
w poszczególnych miesiącach, wykorzystując wyłącznie moduły
fotowoltaiczne, niezbędnym byłoby około siedmiokrotne przewymiarowanie
instalacji. Rozwiązanie takie byłoby ekonomicznie
nieuzasadnione i jednocześnie dawałoby mniejszą gwarancję
ciągłości dostaw energii. Pomimo, że zaprojektowanie schematu
blokowego instalacji jest dosyć proste, to precyzyjny dobór jej
komponentów oraz ich parametrów stanowi trudniejsze wyzwanie,
zwłaszcza w przypadku zasilania obiektów strategicznych
takich jak: mobilne stacje pomiarowe, stacje monitorowania i alarmowania
o zagrożeniach, oświetlenie przeszkodowe i drogowe,
systemy łączności itp. Wychodząc naprzeciw tym problemom
w Instytucie Technologii Elektronowej opracowano i wykonano
system wspomagający realizację takich projektów i prowadzenie
eksperymentów w tym zakresie.
Opis modelu demonstratora systemu
Schemat blokowy ostatecznej wersji demonstratora systemu
przedstawiono na rysunku 1.
W systemie tym, podstawowym źródłem energii jest dziewięć
modułów fotowoltaicznych typu SF 110 wytworzonych na bazie
ogniw z krzemu monokrystalicznego, o podstawowych parametrach:
PMPP=110 W, VOC =21,6 V, VMPP=17,4 V, IMPP=6,32 A, ISC=6,76
A i łącznej mocy 1 kWp. Do dyspozycji jest również dziewięć
modułów fotowoltaicznych typu SF 150/10A-155 wytworzonych
na bazie ogniw z krzemu monokrystalicznego, o podstawowych
parametrach: PMPP=155 W, VOC =43,5 V, VMPP=35 V, IMPP=3,60 A,
ISC=4,00 więcej »
Medycyna od dawna wykorzystuje światło w celach leczniczych.
Obecnie wiadomo, że w organizmie ludzkim może uruchamić
łańcuch reakcji biochemicznych wewnątrz komórek, stymuluje
procesy przemiany materii i regeneracji. Współcześnie w celu pobudzania
tkanek do pozytywnych reakcji najczęściej wykorzystuje
się światło laserowe oraz diod LED z zakresu okna transmisji
tkanek (600...1000 nm) [1-3]. Efekt ten związany jest z absorpcją
niskoenergetycznego promieniowania laserowego, które inicjuje
w tkance procesy na poziomie komórkowym i molekularnym [4-9]
bez jej uszkodzenia i bez znaczącego efektu termicznego (przyrost
temperatury tkanki nie przekracza 1°C). Monochromatyczność
promieniowania laserowego umożliwia selektywne wzbudzanie
poszczególnych substancji chemicznych w tkance w celu
stymulacji określonych procesów chemicznych. Zaobserwowano,
że promieniowanie laserowe wywiera znaczący wpływ na podziały
różnych komórek eukariotycznych [10-12]. Zmiana proliferacji
komórek zależy od długości fali promieniowania, powierzchniowej
gęstości mocy i dostarczonej energii, czasu ekspozycji, a także
od rodzaju tkanki i stanu czynnościowego komórek [13-16].
Wymienione czynniki decydują o tym, jakie zmiany wywołane zostaną
w tkankach napromieniowanych światłem laserowym.
Komórki śródbłonka naczyniowego, pośród różnych typów
komórek ciała, stanowią ze względu na pełnione w organizmie
funkcje ciekawy materiał eksperymentalny, który badacze wykorzystują
do naświetlań in vitro w celu poznania mechanizmów oddziaływania
promieniowania laserowego [17, 18].
Śródbłonek utrzymując homeostazę ustroju, odgrywa podstawową
rolę w wielu procesach fizjologicznych i patologicznych,
m.in.: nadciśnieniu, cukrzycy czy procesie zapalnym [19, 20].
Czynniki wzrostu produkowane przez komórki śródbłonka są
odpowiedzialne za procesy regeneracyjne tkanek oraz rozwój
nowych naczyń. Korzystne warunki w naczyniach krwionośnych
prowadzą do zwiększenia prędkości przepły więcej »
Idea konferencji krajowej po.wi.conej szeroko rozumianej technologii
elektronowej (akronim ELTE . Technologia Elektronowa)
zrodzi.a si. pod koniec lat siedemdziesi.tych ubieg.ego wieku.
Autorami tej koncepcji byli naukowcy z trzech najwa.niejszych
wowczas o.rodkow badawczych. doc. dr Andrzej Ha.as z Politechniki
Wroc.awskiej, prof. dr hab. Franciszek Kaczmarek .
z Uniwersytetu im. A. Mickiewicza w Poznaniu oraz prof. dr hab.
in.. Wies.aw Woli.ski i prof. Bogdan Paszkowski z Politechniki
Warszawskiej. Zaproponowano, aby konferencji nada. formu..
ogolnokrajow., o tematyce okre.lonej przez jej inicjatorow jako
.problemy naukowe i badawczo-rozwojowe dotycz.ce technologii
elektronowej jako dziedziny nauki i techniki, ktorej celem
jest . w oparciu o znane prawa fizyki i chemii . realizacja metod
technologicznych, konstrukcja elementow i przyrz.dow elektronowych,
wytwarzanie uk.adow scalonych typu hybrydowego
i monolitycznego oraz konstrukcja aparatury technologicznej
stosowanej w elektronice?h. Ustalono, .e konferencja b.dzie organizowana
co 3 lata przez ro.ne o.rodki naukowe. Pierwsza,
.Technologia Elektronowa ELTE ?f80?h zorganizowa.a zosta.a przez
Politechnik. Wroc.awsk. we Wroc.awiu i Karpaczu 24.27 wrze.nia
1980 r. Obrady konferencji toczy.y si. w 4 sekcjach: technologia
wysokiej pro.ni, technologia wi.zek elektronowych, jonowych
i fotonowych, optoelektronika i mikroelektronika hybrydowa. Wyg.oszono
27 referatow i zaprezentowano 156 komunikatow w formie
plakatowej.
Dotychczasowymi organizatorami konferencji ELTE by.y: Politechnika
Wroc.awska (czterokrotnie), Politechnika Warszawska
(czterokrotnie), Akademia Gorniczo-Hutnicza (dwukrotnie) oraz
Uniwersytet im. Adama Mickiewicza z Poznania (jeden raz). ELTE
2013, zorganizowana przez Instytut Mikroelektroniki i Optoelektroniki
Politechniki Warszawskiej jest ju. jedenast. konferencj.
z tego cyklu. Na jej lokalizacj. wybrano odbudowany XIV-wieczny
zamek krzy.acki w mazurskim mie.ci więcej »
Europejska Mapa Drogowa Fuzji - EMDF.Profesor Pierre-Gilles de Gennes powiedział w czasie swojego
wykładu noblowskiego z dziedziny fizyki w roku 1991 o energetyce
termojądrowej następujące słowa: "Mówimy, że zamkniemy
słońce w pudełku. Idea znakomita. Nie wiemy tylko jak zbudować
to pudełko". Reakcja termojądrowa jest głównym, poza energią
grawitacyjną, źródłem energii gwiazd. Kontrolowana reakcja termojądrowa
mogłaby stać się przyszłym, bezpiecznym i czystym,
źródłem energii dla ludzkości, po wyczerpaniu paliw kopalnych.
W Planie Strategicznym Unii Europejskiej dotyczącym rozwoju
technologii energetycznych wyrażono konieczność intensyfikacji
i stabilizacji prac na rzecz zapewnienia produkcji energii
elektrycznej z fuzji jądrowej do roku 2050. Mapę Drogową dla
Fuzji (EMDF), w porozumieniu z Komisją Europejską, opracowała
i uaktualnia organizacja EFDA - Europejskie Porozumienie
Rozwoju Fuzji. Organizacja EFDA zapewnia ramy międzynarodowe
prac nad przyszłym źródłem energii. Porozumienie EFDA
podpisało 28 krajów, w tym Polska. EFDA jest częścią programu
Unii Europejskiej EURATO M. Asocjacja EURATO M - Europejska
Wspólnota Energii Atomowej (European Atomic Energy Community)
podlega obecnie formalnemu przekształceniu w Konsorcjum
Europejskie. Celem działań jest uczynienie z Fuzji wiarygodnego
źródła energii. Metodą jest realizacja ściśle opracowanej Mapy
Drogowej Rozwoju Fuzji. Pierwszy etap prac został zdefiniowany
w perspektywie programowej KE "Horyzont 2020. Mapa Drogowa
Fuzji była poprzedzona analizami prowadzonymi od roku 2000
i eksperymentami, takimi jak JET od końca lat siedemdziesiątych
20 wieku. Kamieniami milowymi na europejskiej drodze fuzyjnej
są JET Joint European Torus) wspólny tokamak eksperymentalny
w Culham koło Oxfordu, ITER (International Thermonuclear Experimental
Reactor) tokamak, IFMIF (International Fusion Material
Irradiation Facility) i DEMO (Demonstracyjna - Testowa Elektrownia
Termonuklearna). Kluczową r więcej »