Model teoretyczny tunelowego tranzystora polowego DOI:10.15199/13.2016.7.9
W pracy przestawiono model fizyczny tranzystora tunelowego polowego
(TFET). Model bazuje na rozwiązaniu równania Poissona
oraz równań ciągłości dla prądu elektronów i dziur w dwóch wymiarach.
Tunelowanie zostało uwzględnione poprzez nielokalny
model generacji międzypasmowej. Omówiono zasadę działania
tranzystora TFET oraz przedstawiono wyniki obliczeń. Wygenerowano
przykładowe charakterystyki wyjściowe oraz przejściowe dla
różnych parametrów struktury DG (double gate).
Słowa kluczowe: przyrządy półprzewodnikowe, tranzystor tunelowy,
tunelowanie międzypasmowe.Zmniejszanie rozmiarów jest najważniejszym czynnikiem
wzrostu stopnia integracji układów scalonych. Stosowanie
reguł skalowania dla tranzystora MOS zapobiega niepożądanym
konsekwencjom jego miniaturyzacji takim jak efekty
krótkiego kanału, DIBL (Drain Induced Barier Lowering),
nasycanie prędkości unoszenia nośników, efekty "gorących
elektronów" czy jonizacja zderzeniowa. Jednakże zmniejszanie
rozmiaru charakterystycznego poniżej kilkunastu nanometrów
ujawnia nowe niepodlegające skalowaniu efekty, będące
konsekwencją ziarnistości materii i ładunku elektrycznego
oraz falowej natury nośników. Lokalne fluktuacje poziomu
domieszkowania, balistyczny charakter transportu, czy upływ
tunelowy bramki zaczynają mieć zauważalny wpływ na pracę
tranzystorów MOS w najbardziej zaawansowanych realizacjach
[1]. Zgodnie z klasycznymi regułami skalowania redukcji
wszystkich rozmiarów lateralnych i wertykalnych powinna
towarzyszyć proporcjonalna redukcja napięcia zasilania. Barierą
dla zmniejszania napięcia zasilania tranzystora MOS jest
ograniczone nachylenie charakterystyki przejściowej tranzystora
MOS w zakresie podprogowym. Jest ono określane
przez parametr SS (subtreshhold swing) zdefiniowany przez
zmianę napięcia bramki odpowiadającą zwiększeniu podprogowego
prądu drenu o dekadę. Wartość tego parametru
w temperaturze pokojowej dla w pełni zubożonego tranzystora
DG MOS (double gate MOS[...]
Automatic cell counting in neuroblastoma
The paper presents a method of automatic cell counting on the basis of the pathology images. The evaluated images are microscope slides of neuroblastoma disease in Ki-67 (MIB-1) staining. This disease is recognized as the fourth in frequency of appearance of the malignant tumours for people under 15 years old. This evaluation was introduced by Shimada and it is important factor in the stroma-poo[...]
Metody adaptacyjnego strumieniowania wideo oparte na standardzie MPEG DASH DOI:10.15199/59.2016.8-9.3
Przedstawiono metody adaptacyjnego strumieniowania
treści wideo oparte na standardzie MPEG DASH (Dynamic
Adaptive Streaming over HTTP). Głównym celem
metod adaptacyjnego strumieniowania wideo jest
zapewnienie ciągłości odtwarzania wideo przez dostosowanie profilu pobieranego
wideo do aktualnych warunków ruchowych panujących w sieci.
Omówiono zasadę działania metod adaptacyjnego strumieniowania wideo,
dokonano przeglądu obecnie stosowanych oraz opracowywanych algorytmów
adaptacji, a także przedstawiono kierunki rozwoju metod adaptacyjnego
strumieniowania wideo.
Słowa kluczowe: MPEG DASH, adaptacyjne strumieniowanie wideo, multimedia
Przekaz treści multimedialnych stanowi obecnie ponad 60%
całkowitego ruchu w sieci Internet. Warto zwrócić uwagę, iż sieć
Internet nie była projektowana dla zapewnienia efektywnej obsługi
takiego ruchu. Z tego względu w ostatnim okresie zaproponowano
nowe rozwiązania wspierające efektywną dystrybucję treści
multimedialnych, takie jak sieci CDN (Content Delivery Networks)
oraz sieci ICN/CAN (Information Centric Network/Content Aware
Netowks) [1]. Wdrożenie tych rozwiązań wymaga znacznej rozbudowy
infrastruktury sieci o nowe elementy wspierające przekaz
treści, takie jak węzły przekazu treści, serwery przechowujące
repliki treści czy też serwery umożliwiające rekodowanie i strumieniowanie
obrazów wideo.
Metody adaptacyjnego strumieniowania wideo są komplementarnym
rozwiązaniem, w którym założono usprawnienie przekazu
treści wideo przez zastosowanie algorytmów sterowania
na poziomie aplikacji. Metody te są stosunkowo łatwe do wdrożenia,
ponieważ nie wymagają modyfikacji infrastruktury sieci. Podstawowym
celem metod adaptacyjnego strumieniowania treści
jest zapewnienie ciągłości odtwarzania wideo przez dostosowanie
profilu pobieranego wideo do zmieniających się warunków ruchowych
w sieci, obciążenia serwerów oraz możliwości terminali.
Wybór profilu wideo jest realizowany przez algorytm adaptacji
w cz[...]
W kierunku Internetu przyszłości: równoległe internety DOI:10.15199/59.2015.2-3.10
Infrastruktura sieciowa obecnego Internetu opiera się głównie
na protokole IPv4. Jednocześnie trwa transformacja z wersji IPv4
na wersję IPv6, co jest podyktowane koniecznością zwiększenia
puli adresowej. Zasadniczymi cechami obecnego Internetu są:
zapewnienie możliwości połączenia "każdy z każdym" (connectivity)
oraz ogólnoświatowy zasięg. Sieć Internet nazywa się siecią
sieci. Nie ma w niej bowiem zaimplementowanych mechanizmów
sterowania całą siecią i odbywa się ono na zasadzie współpracy
pomiędzy sąsiadującymi (połączonymi) ze sobą domenami.
Podstawową usługą oferowaną obecnie w sieci Internet jest
usługa best effort, zaś jakość przekazu danych polepsza się
przez zwiększanie, tam gdzie jest to możliwe, przepływności
łączy transmisyjnych. Niestety, zwiększanie to jest ograniczone,
zwłaszcza w sieciach bezprzewodowych. Należy też podkreślić,
co jest niezmiernie ważne, że pomimo stale rozbudowywanej sieci
Internet, dotychczas nie było poważnej i rozległej terytorialnie
jego awarii.
Korzystanie z Internetu staje się coraz powszechniejsze. Stale
pojawiają się nowe jego zastosowania dotyczące różnych dziedzin,
począwszy od rozrywki do profesjonalnych aplikacji np.
z obszaru e-zdrowie. Dlatego też dalszy rozwój Internetu w kierunku
zwiększania jego zdolności obsługowych jest podstawowym
zagadnieniem badawczym i wdrożeniowym na świecie. Ma to
również odzwierciedlenie w obszarach badawczych określonych
w realizowanym obecnie głównym programie europejskim Horyzont
2020 [1]. Sektor aktywności badawczej związanej z rozwojem
Internetu jest umieszczony w dziale Technologii Informacyjno-
Komunikacyjnych TIK (Information and Communications Technologies
- ICT). Tak duże znaczenie rozwoju Internetu wynika
z jego użyteczności i połączenia z rozwojem cywilizacyjnym,
na przykład dotyczącym budowy inteligentnych miast. Chociaż
zawsze z pewną ostrożnością należy patrzeć na prognozy, to
jednak zakłada się, iż sieć Internet będzie się rozwijała [...]
Rozległe sieci badawcze dla testowania rozwiązań nowych generacji internetu DOI:10.15199/59.2015.8-9.1
Obserwowany w ostatniej dekadzie intensywny rozwój technik
komunikacyjnych spowodował, iż stale pojawiają się nowe propozycje
rozwiązań w obszarze komunikacji: człowiek - człowiek,
człowiek - maszyna oraz maszyna - maszyna. Rozwiązania te,
z sukcesem testowane w małych laboratoriach firm i instytucji,
nie zawsze spełniają wymagania stawiane przed nimi w docelowym
rozproszonym środowisku technik informacyjnych i komunikacyjnych
(Information and Communication Technology - ICT).
W związku z tym powstało zapotrzebowanie na duże rozproszone
laboratoria sieciowe, umożliwiające testowanie produktów w środowisku
niemalże zbliżonym do docelowych warunków, w których
mają być wdrożone.
Ponadto obecna infrastruktura sieciowa w ogromnej mierze
opiera się na rozwiązaniach sprzed ponad trzech dekad. Nie
odpowiadają one dzisiejszym potrzebom i stanowią ograniczenie
dla dalszego rozwoju globalnej sieci. Wyeksploatowanie
puli adresów IPv4, rosnące koszty i niska wydajność obecnego
modelu rutingu pakietów IP, problemy z bezpieczeństwem i brak
skalowalności, brak gwarancji jakości przekazu pakietów i nieefektywne
metody obsługi mobilności użytkowników to główne
wady dzisiejszej sieci Internet, wstrzymujące jej rozwój. Dążąc
do rozwiązania tych problemów, rozpoczęto badania nad alternatywnymi
architekturami, szybkimi i skalowalnymi, które odpowiadałyby
potrzebom nie tylko dzisiejszych czasów, ale również
przyszłych. Jednakże ze względu na mnogość protokołów i ich
implementacji, a także stosowanie różnego typu sprzętu w sieci
Internet, ogromną trudność sprawia walidacja nowych rozwiązań
w rzeczywistym środowisku sieciowym.
W artykule przedstawiono rozwój laboratoriów i sieci testowych
w ciągu ostatnich lat w Europie, na świecie i ostatnio w Polsce.
Przedstawiono także motywację i główne cele tworzenia
dużych rozproszonych laboratoriów zrzeszających wiele jednostek
badawczych. Omówiono ewolucję infrastruktur badawczych,
kładąc nacisk na opis infr[...]