Wyniki 1-5 spośród 5 dla zapytania: authorDesc:"Piotr Wiśniewski"

Model teoretyczny tunelowego tranzystora polowego DOI:10.15199/13.2016.7.9


  W pracy przestawiono model fizyczny tranzystora tunelowego polowego (TFET). Model bazuje na rozwiązaniu równania Poissona oraz równań ciągłości dla prądu elektronów i dziur w dwóch wymiarach. Tunelowanie zostało uwzględnione poprzez nielokalny model generacji międzypasmowej. Omówiono zasadę działania tranzystora TFET oraz przedstawiono wyniki obliczeń. Wygenerowano przykładowe charakterystyki wyjściowe oraz przejściowe dla różnych parametrów struktury DG (double gate). Słowa kluczowe: przyrządy półprzewodnikowe, tranzystor tunelowy, tunelowanie międzypasmowe.Zmniejszanie rozmiarów jest najważniejszym czynnikiem wzrostu stopnia integracji układów scalonych. Stosowanie reguł skalowania dla tranzystora MOS zapobiega niepożądanym konsekwencjom jego miniaturyzacji takim jak efekty krótkiego kanału, DIBL (Drain Induced Barier Lowering), nasycanie prędkości unoszenia nośników, efekty "gorących elektronów" czy jonizacja zderzeniowa. Jednakże zmniejszanie rozmiaru charakterystycznego poniżej kilkunastu nanometrów ujawnia nowe niepodlegające skalowaniu efekty, będące konsekwencją ziarnistości materii i ładunku elektrycznego oraz falowej natury nośników. Lokalne fluktuacje poziomu domieszkowania, balistyczny charakter transportu, czy upływ tunelowy bramki zaczynają mieć zauważalny wpływ na pracę tranzystorów MOS w najbardziej zaawansowanych realizacjach [1]. Zgodnie z klasycznymi regułami skalowania redukcji wszystkich rozmiarów lateralnych i wertykalnych powinna towarzyszyć proporcjonalna redukcja napięcia zasilania. Barierą dla zmniejszania napięcia zasilania tranzystora MOS jest ograniczone nachylenie charakterystyki przejściowej tranzystora MOS w zakresie podprogowym. Jest ono określane przez parametr SS (subtreshhold swing) zdefiniowany przez zmianę napięcia bramki odpowiadającą zwiększeniu podprogowego prądu drenu o dekadę. Wartość tego parametru w temperaturze pokojowej dla w pełni zubożonego tranzystora DG MOS (double gate MOS[...]

Automatic cell counting in neuroblastoma

Czytaj za darmo! »

The paper presents a method of automatic cell counting on the basis of the pathology images. The evaluated images are microscope slides of neuroblastoma disease in Ki-67 (MIB-1) staining. This disease is recognized as the fourth in frequency of appearance of the malignant tumours for people under 15 years old. This evaluation was introduced by Shimada and it is important factor in the stroma-poo[...]

Metody adaptacyjnego strumieniowania wideo oparte na standardzie MPEG DASH DOI:10.15199/59.2016.8-9.3


  Przedstawiono metody adaptacyjnego strumieniowania treści wideo oparte na standardzie MPEG DASH (Dynamic Adaptive Streaming over HTTP). Głównym celem metod adaptacyjnego strumieniowania wideo jest zapewnienie ciągłości odtwarzania wideo przez dostosowanie profilu pobieranego wideo do aktualnych warunków ruchowych panujących w sieci. Omówiono zasadę działania metod adaptacyjnego strumieniowania wideo, dokonano przeglądu obecnie stosowanych oraz opracowywanych algorytmów adaptacji, a także przedstawiono kierunki rozwoju metod adaptacyjnego strumieniowania wideo. Słowa kluczowe: MPEG DASH, adaptacyjne strumieniowanie wideo, multimedia Przekaz treści multimedialnych stanowi obecnie ponad 60% całkowitego ruchu w sieci Internet. Warto zwrócić uwagę, iż sieć Internet nie była projektowana dla zapewnienia efektywnej obsługi takiego ruchu. Z tego względu w ostatnim okresie zaproponowano nowe rozwiązania wspierające efektywną dystrybucję treści multimedialnych, takie jak sieci CDN (Content Delivery Networks) oraz sieci ICN/CAN (Information Centric Network/Content Aware Netowks) [1]. Wdrożenie tych rozwiązań wymaga znacznej rozbudowy infrastruktury sieci o nowe elementy wspierające przekaz treści, takie jak węzły przekazu treści, serwery przechowujące repliki treści czy też serwery umożliwiające rekodowanie i strumieniowanie obrazów wideo. Metody adaptacyjnego strumieniowania wideo są komplementarnym rozwiązaniem, w którym założono usprawnienie przekazu treści wideo przez zastosowanie algorytmów sterowania na poziomie aplikacji. Metody te są stosunkowo łatwe do wdrożenia, ponieważ nie wymagają modyfikacji infrastruktury sieci. Podstawowym celem metod adaptacyjnego strumieniowania treści jest zapewnienie ciągłości odtwarzania wideo przez dostosowanie profilu pobieranego wideo do zmieniających się warunków ruchowych w sieci, obciążenia serwerów oraz możliwości terminali. Wybór profilu wideo jest realizowany przez algorytm adaptacji w cz[...]

W kierunku Internetu przyszłości: równoległe internety DOI:10.15199/59.2015.2-3.10


  Infrastruktura sieciowa obecnego Internetu opiera się głównie na protokole IPv4. Jednocześnie trwa transformacja z wersji IPv4 na wersję IPv6, co jest podyktowane koniecznością zwiększenia puli adresowej. Zasadniczymi cechami obecnego Internetu są: zapewnienie możliwości połączenia "każdy z każdym" (connectivity) oraz ogólnoświatowy zasięg. Sieć Internet nazywa się siecią sieci. Nie ma w niej bowiem zaimplementowanych mechanizmów sterowania całą siecią i odbywa się ono na zasadzie współpracy pomiędzy sąsiadującymi (połączonymi) ze sobą domenami. Podstawową usługą oferowaną obecnie w sieci Internet jest usługa best effort, zaś jakość przekazu danych polepsza się przez zwiększanie, tam gdzie jest to możliwe, przepływności łączy transmisyjnych. Niestety, zwiększanie to jest ograniczone, zwłaszcza w sieciach bezprzewodowych. Należy też podkreślić, co jest niezmiernie ważne, że pomimo stale rozbudowywanej sieci Internet, dotychczas nie było poważnej i rozległej terytorialnie jego awarii. Korzystanie z Internetu staje się coraz powszechniejsze. Stale pojawiają się nowe jego zastosowania dotyczące różnych dziedzin, począwszy od rozrywki do profesjonalnych aplikacji np. z obszaru e-zdrowie. Dlatego też dalszy rozwój Internetu w kierunku zwiększania jego zdolności obsługowych jest podstawowym zagadnieniem badawczym i wdrożeniowym na świecie. Ma to również odzwierciedlenie w obszarach badawczych określonych w realizowanym obecnie głównym programie europejskim Horyzont 2020 [1]. Sektor aktywności badawczej związanej z rozwojem Internetu jest umieszczony w dziale Technologii Informacyjno- Komunikacyjnych TIK (Information and Communications Technologies - ICT). Tak duże znaczenie rozwoju Internetu wynika z jego użyteczności i połączenia z rozwojem cywilizacyjnym, na przykład dotyczącym budowy inteligentnych miast. Chociaż zawsze z pewną ostrożnością należy patrzeć na prognozy, to jednak zakłada się, iż sieć Internet będzie się rozwijała [...]

Rozległe sieci badawcze dla testowania rozwiązań nowych generacji internetu DOI:10.15199/59.2015.8-9.1


  Obserwowany w ostatniej dekadzie intensywny rozwój technik komunikacyjnych spowodował, iż stale pojawiają się nowe propozycje rozwiązań w obszarze komunikacji: człowiek - człowiek, człowiek - maszyna oraz maszyna - maszyna. Rozwiązania te, z sukcesem testowane w małych laboratoriach firm i instytucji, nie zawsze spełniają wymagania stawiane przed nimi w docelowym rozproszonym środowisku technik informacyjnych i komunikacyjnych (Information and Communication Technology - ICT). W związku z tym powstało zapotrzebowanie na duże rozproszone laboratoria sieciowe, umożliwiające testowanie produktów w środowisku niemalże zbliżonym do docelowych warunków, w których mają być wdrożone. Ponadto obecna infrastruktura sieciowa w ogromnej mierze opiera się na rozwiązaniach sprzed ponad trzech dekad. Nie odpowiadają one dzisiejszym potrzebom i stanowią ograniczenie dla dalszego rozwoju globalnej sieci. Wyeksploatowanie puli adresów IPv4, rosnące koszty i niska wydajność obecnego modelu rutingu pakietów IP, problemy z bezpieczeństwem i brak skalowalności, brak gwarancji jakości przekazu pakietów i nieefektywne metody obsługi mobilności użytkowników to główne wady dzisiejszej sieci Internet, wstrzymujące jej rozwój. Dążąc do rozwiązania tych problemów, rozpoczęto badania nad alternatywnymi architekturami, szybkimi i skalowalnymi, które odpowiadałyby potrzebom nie tylko dzisiejszych czasów, ale również przyszłych. Jednakże ze względu na mnogość protokołów i ich implementacji, a także stosowanie różnego typu sprzętu w sieci Internet, ogromną trudność sprawia walidacja nowych rozwiązań w rzeczywistym środowisku sieciowym. W artykule przedstawiono rozwój laboratoriów i sieci testowych w ciągu ostatnich lat w Europie, na świecie i ostatnio w Polsce. Przedstawiono także motywację i główne cele tworzenia dużych rozproszonych laboratoriów zrzeszających wiele jednostek badawczych. Omówiono ewolucję infrastruktur badawczych, kładąc nacisk na opis infr[...]

 Strona 1