Wyniki 11-20 spośród 22 dla zapytania: authorDesc:"Marek Hołyński"

Coraz mniejsze DOI:


  Skoro minikomputery odniosły sukces, to czemu nie pójść dalej i nie spróbować zrobić jeszcze czegoś mniejszego. Jeszcze mniejszego? Wtedy wyglądało to mało realnie. - W latach 70-tych wygłaszałem cotygodniowe felietony o komputerach dla redakcji naukowej Polskiego Radia na ulicy Myśliwieckiej. Opowiadałem o tym, jak staną się mniejsze, szybsze i zdolne do wykonywania coraz to nowych zadań. A kiedyś, być może, w odległej przyszłości niektórzy ludzie będą mieli w domu własne komputery. Sam w to nie wierzyłem i tak tylko mówiłem, żeby słuchaczy oswoić z tematem. Nie mieściło mi się w głowie, iż za życia doczekam się komputera w swoim mieszkaniu. Teraz czuję się trochę jak oszust, którego kłamstwa ni stąd ni zowąd okazały się prawdą. - wyznaje popularyzator nauki. Komputer w domu - po co? Podobne zdanie mieli światowi stratedzy. W 1972 r. Ken Olson, założyciel i długotrwały prezes Digitala (firmy, która wywołała rewolucję wprowadzeniem minikomputerów), stwierdził publicznie, że "nie ma najmniejszego powodu, by ktokolwiek odczuwał potrzebę instalowania komputera w swoim domu". Za pierwszy komputer osobisty uznaje się maszynę Altair 8800 firmy MITS z 1975 r. (to ten, który skonstruował Bill Gates z kolegą). Jednak takim, który rzeczywiście został zauważony przez użytkowników był zaprezentowany rok później Apple I. A już Apple II produkowany od 1981 r. podbił rynek. To był jednak rynek głównie biurowy ze względu na edytor tekstu i arkusz kalkulacyjny, które okazały się dla kancelistów nad wyraz przydatne. Wciąż dominujący wśród producentów sprzętu IBM nie mógł sobie pozwolić na rezygnację z potencjalnie pokaźnego kawałka tortu. Odpowiedział[...]

Składaki i giełdy DOI:


  IBM nie utrzymywał sekretów swojego PC w tajemnicy, traktując je jako tzw. otwartą architekturę i na krótką metę uzyskał dzięki temu rynkową przewagę. W latach 80. ub. wieku pecet stał się kanonem, do którego musieli się dostosować inni wytwórcy sprzętu i autorzy oprogramowania, jeśli mieli zamiar cokolwiek sprzedać. Ta strategia miała też jednak sporą wadę. Skro bowiem wszyscy znają obowiązujące standardy dla rozmaitych składników peceta, to każdy może przestrzegając tych norm, je wytwarzać. Z tych kompatybilnych elementów i urządzeń peryferyjnych kupowanych z rozmaitych źródeł da się następnie samemu złożyć komputer. Działający jak oryginalny pecet, ale znacznie tańszy. To się zdecydowanie opłacało. Jeżeli każdy to może sobie poskładać, to czemu nie mogłyby tym się zająć polskie firmy? Z ograniczeniami importowymi dawały sobie dotąd obrotnie radę. Nie tylko sprowadzały, przede wszystkim z Dalekiego Wschodu, gotowe komputery. Najlepsze przebicie dawało sprowadzanie komponentów i montowanie ich np. w piwnicy albo w stodole, bo kultowych dla amerykańskich startupów garaży przy domach było niewiele. Potem składaki sprzedawano w kraju lub w demoludach. Sąsiedzki rynek był równie chłonny, a niewielu lokalnych przedsiębiorców wpadło na ten prosty pomysł biznesowy. Nabywcy byli wniebowzięci. Ceny sprzętu spadały po kilka lub kilkanaście tysięcy złotych miesięcznie, a urządzenia okazywały się nie tylko tańsze, ale też bardziej niezawodne od komputerów produkowanych przez państwowy przemysł. Mistrz informatyki Nie było łatwo, bo informatycy nastawieni biznesowo ciągle byli stygmatyzowani piętnem "prywaciarzy" i władze starały się, jak mogły, im życie utrudnić. Sytuacja jak z Barei. Zgodnie z obowiązującymi przepisami firmę informatyczną można było założyć tylko jako zakład rzemieślniczy. Czyli mieć papiery mistrzowskie (w informatyce?) i zadeklarować, ilu czeladników (kierowników projektów?) ma się zamiar zatr[...]

Internet puka do drzwi DOI:


  W końcu lat 80. ub. wieku z komputerowymi sieciami krajowymi zaczęło się robić już całkiem nieźle. Gorzej było z wyjściem na zewnątrz. To w dużej mierze zależało od kapryśnych telefonów i modemów oraz humorów podejrzliwych władz. Nie zawsze się udawało zbyt dużo wysłać lub odebrać, co widać z poniższej relacji. Pracowałem wtedy na uniwersytecie w Stanach, ale byłem na urlopie w Warszawie. Koniecznie chciałem przeczytać pocztę, która nadeszła podczas mojej nieobecności na uczelnię, bo chodziło o zdobycie dużego grantu. Oficjalnie nie zabraniano międzynarodowych połączeń komputerowych, bo władze chyba nie bardzo wiedziały, o co chodzi. Ale ponieważ przesyłane informacje trudno było podsłuchać i ocenzurować, nie należało się z tym specjalnie afiszować. Ktoś ze znajomych miał dostęp do sieci europejskiej i obiecał pomóc. O świcie wyruszyliśmy z przewodnikiem taksówką na peryferie miasta. Wysiedliśmy o parę kwartałów przed celem i klucząc doszliśmy do jednorodzinnego domku. Umówiony dzwonek i znaleźliśmy się w piwnicy wyposażonej w komputer osobisty i modem. Czułem się jak prawdziwy konspirator. Połączenie udawało się uzyskać z krajami, do których można było się dodzwonić przez centralę automatyczną. Do Stanów trzeba jednak było wówczas korzystać z pośrednictwa telefonistki. Próbowaliśmy ją przekonać, żeby łączyła zaraz po usłyszeniu wysokiego tonu z uczelnianego serwera, do którego miał się wpiąć nasz modem. "Jak mogę łączyć, skoro tam tylko coś piszczy?". Perswazje nie pomogły i przestrzegające wewnętrznego regulaminu pracownice z centrali telefonicznej okazały się przeszkodą techniczną nie do pokonania.1 Amerykanie pozwalają Kłopoty z zagranicznymi połączeniami miały też inną przyczynę. Decydujący z racji technologicznej przewagi Amerykanie niechętnie odnosili się do transferu rozwiązań, bądź co bądź, tworzonych głównie na potrzeby armii. Po utworzeniu w Polsce pierwszego niekomunistycznego rządu oni i inne[...]

Transformersi i banksterzy DOI:


  Wspomniane w poprzednim artykule tego cyklu złagodzenie restrykcji nałożonych przez COCOM zaczęto stosować nie tylko dla sieci. Stopniowo zezwalano na sprzedaż coraz szybszych procesorów, pojemniejszych pamięci i innych parametrów ograniczających dotąd eksport komputerów ze względu na możliwość wykorzystania ich do celów militarnych. Aż wreszcie w 1994 r. zlikwidowano sam COCOM, zastępując go Porozumieniem Wassenaar, ale w tej organizacji Polska i pozostałe kraje Europy Środkowej i Wschodniej były już pełnoprawnymi członkami. Projektowanie i wytwarzanie komputerów przestało być koniecznością. Teraz można było wejść do dowolnego sklepu z elektroniką i przebierać w bogatym asortymencie dostępnego sprzętu oraz oprogramowania. Otwarcie się rynku polskiego i ograniczenie barier celnych spowodowało dynamiczny rozwój prywatnych firm, ale dla państwowego przemysłu komputerowego nastały ciężkie czasy. Już nie było tak, że klienci chętnie kupią wszystko, co się wyprodukuje, nawet gdy towar nie jest w pełni sprawny. Wiele zakładów nie potrafiło się dostosować do sytuacji i padało. Choć czasem je prywatyzowano, to nawyki z okresu dominacji rynku producenta łatwo nie dawały się wykorzenić. Silicon Valley rules Dołożyła się do tego podobna tendencja w innych wiodących do tej pory krajach. Brytyjski ICL stał się europejskim oddziałem Fujitsu. Francuski Bull (Compagnie des Machines Bull), któremu udało się umieścić kilkanaście swoich maszyn na liście najpotężniejszych superkomputerów, też wycofał się z wyścigu. Niemiecki Siemens już w 1959 r. rozpoczął masową produkcję maszyn na tranzystorach, a na koniec zadowolił się zagospodarowywaniem niszy mobilnych centrów danych. Wszędzie narodowe ambicje przegrały z czysto biznesową kalkulacją. Żeby stworzyć urządzenie[...]

I czasopisma DOI:


  Kiedy nie było jeszcze Internetu wiedzę informatyczną czerpało się przede wszystkim z fachowych czasopism i książek. Przygotowania do uruchomienia poważnego czasopisma o tematyce komputerowej rozpoczęto latem 1965 r. Cykl poligraficzny trwał wtedy trzy miesiące, więc pierwszy numer pisma, pod mało atrakcyjnym tytułem "Maszyny matematyczne, zastosowania w gospodarce, technice i nauce", jest datowany na listopad-grudzień. Oficjalnie był to organ Pełnomocnika Rządu ds. Elektronicznej Techniki Obliczeniowej i Naczelnej Organizacji Technicznej. Redaktorem naczelnym został prof. Leon Łukaszewicz, który mocno się w tę inicjatywę zaangażował i jako dyrektor Instytutu Maszyn Matematycznych zlecił jej realizację szefowej branżowego ośrodka informacji naukowo-technicznej IMM. Informatycy publikują Wydawano ten periodyk w nakładzie 2000 egzemplarzy, co pokrywało potrzeby szczupłego w tamtych latach grona zainteresowanych czytelników. - Czasopismo, którego pierwszy numer oddajemy do rąk Czytelników, przeznaczone jest przede wszystkim dla szerokiego kręgu aktualnych i potencjalnych użytkowników maszyn matematycznych, tj. ekonomistów i inżynierów różnych specjalności, organizatorów, projektantów, konstruktorów i pracowników nauki. Celem czasopisma jest stałe informowanie, w sposób możliwie przystępny, o najnowszych osiągnięciach i perspektywach rozwoju zastosowań maszyn matematycznych, udostępnianie materiałów oraz danych technicznych i ekonomicznych o środkach, metodach i systemach przetwarzania informacji - pisała w słowie wstępnym redakcja. Z tych deklaracji wywiązywano się l[...]

Zdrowa kondycja jubilata DOI:


  Przez cały mijający właśnie rok "Przegląd Techniczny" publikował artykuły omawiające różne aspekty bogatych dziejów polskiej informatyki. Uhonorowaliśmy w ten sposób 70-lecie jej powstania. Za początek tej nader obecnie istotnej dziedziny wiedzy i praktyki przyjmuje się powszechnie 23 grudnia 1948 r. Był to dzień utworzenia w Państwowym Instytucie Matematycznym zespołu nazwanego Grupa Aparatów Matematycznych, którego zadaniem było stworzenie polskiego komputera.Teksty drukowane w "Przeglądzie" dobrze współgrały z ogólnopolskimi obchodami tej rocznicy. Złożyło się na nie kilkadziesiąt konferencji, seminariów, debat publicznych i innych wydarzeń organizowanych przez urzędy administracji publicznej, uczelnie, stowarzyszenia oraz firmy sektora IT. Ich koordynacji podjęło się Polskie Towarzystwo Informatyczne, a imprezy zostały objęte najwyższymi patronatami: Prezydenta Rzeczypospolitej Polskiej, Prezesa Rady Ministrów oraz szefów wszystkich jakoś związanych z branżą informatyczną resortów. Rocznica była dobrą okazją do ogólnych refleksji na temat roli współczesnej informatyki i samych informatyków. Od lutego do maja jubileuszowego roku w oddziałach i sekcjach PTI trwała debata środowiskowa dotycząca pojmowania zawodu informatyka. Dyskutowano o tym, jak zmienia się ta profesja, o pozyskiwaniu niezbędnych kwalifikacji, kwestiach etycznych, rynku pracy, przeciwdziałaniu wykluczeniu cyfrowemu, bezpieczeństwie… Podsumowanie tej debaty odbyło się na konferencji 16 maja 2018 w siedzibie NOT, a najciekawsze wypowiedzi zostały zamieszczone w zbiorze materiałów pokonferencyjnych.1 Dla mnie bomba Celebrowano nie tylko lokalnie. We wrześniu odbył się w Poznaniu 24 Światowy Kongres Komputerowy organizowany przez federację IFIP (International Federation for Information Processing) - wiodącego międzynarodowego stowarzyszenia zajmującego się przetwarzaniem informacji. Członkami IFIP są towarzystwa i akademie nauk z pon[...]

Co dalej z informatyką? DOI:


  W minionym roku praktycznie w każdym numerze Przeglądu Technicznego publikowaliśmy materiały dotyczące historii polskiej informatyki. Było to związane z 70-leciem jej powstania. W 1948 r. w Państwowym Instytucie Matematycznym utworzono Grupę Aparatów Matematycznych, która rozpoczęła w Polsce budowę pierwszego komputera. Ogólnopolskie obchody tej rocznicy już się zakończyły, więc pora pomyśleć o jutrze. Co czeka nas w najbliższych latach i dokąd prowadzi tak dynamiczny rozwój informatyki? To nie takie proste. Zawodowi futurolodzy do znudzenia cytują powiedzenie znakomitego duńskiego fizyka Nielsa Bohra (często też przypisywane rozmaitym innym osobom): "Przewidywanie jest bardzo trudne, szczególnie jeśli idzie o przyszłość." Zbyt wiele było w branży ICT nietrafionych prognoz, które dziś budzą jedynie uśmiech politowania. Komputery bardzo zakorzeniły się w niemal każdej dziedzinie naszego zawodowego oraz prywatnego życia i nic nie wskazuje na to, że to granice ich możliwości. Wcale nie jest pewne, że za kolejne 70 lat będą w obiegu słowa informatyka czy komputer, bo rozwój może doprowadzić do powstania niełatwych dziś do antycypowania urządzeń i dziedzin wiedzy. W wielu firmach komputerowych obowiązuje oficjalny zakaz planowania czegokolwiek na dłużej niż dwa, trzy lata. Ich szefowie zakładają, że w tym okresie mogą pojawić się nowe trendy, których nie sposób teraz przewidzieć. Część obecnych pewniaków okaże się natomiast ślepymi uliczkami, z których pozostanie się jedynie wycofać. Wolą więc ograniczyć horyzont i podejmować decyzje na podstawie tego, co widać gołym okiem. A na kolejnym rozwidleniu dróg rozpoznać sytuację w zasięgu wzroku i wybrać kierunek, który wydaje się najbardziej rozsądny. Społeczeństwo informacyjne Jednak niektóre kierunki s[...]

W sieci DOI:


  Jak wiadomo z Kabaretu Starszych Panów, "wespół w zespół" można więcej. Maszyny cyfrowe próbowano zatem łączyć ze sobą i wymieniać między nimi informacje. W październiku 1969 r. udało się to między Uniwersytetem Kalifornijskim w Los Angeles i odległym o 600 km Stanford Research Institute (SRI) w Palo Alto.Z Los Angeles podjęto próbę zalogowania się z tamtejszego komputera na maszynę w SRI i otworzenia na niej okienka przy pomocy rozkazu logowania "logon". rewolucyjne "lo" Gdy uzyskano połączenie, naciśnięto klawisz "l" i czekano na telefoniczne potwierdzenie z Palo Alto. Po dłuższej chwili nadeszła wiadomość: "Hej, na naszym monitorze pojawiła się litera >>l<<." Wystukano "o". "Napisaliśmy >>o<<; doszło do was?". "W porządku mamy >>o<<. Piszcie dalej." Napisali "g", ale wówczas komputer Honeywell DDP 516 wykonał core dump, nazywany u nas "zrzutem pamięci", i się zawiesił. Owo "lo" okazało się jednak ważniejsze od strzału z "Aurory", gdyż rozpoczęło donioślejszą rewolucję w dziejach ludzkości. Potem już poszło szybko. Zwykle chodziło o umożliwienie współpracy naukowcom pracującym nad tym samym tematem na różnych uczelniach. Aż wreszcie coraz liczniejsze połączone ze sobą komputery zaczęto nazywać siecią (net). Wstępnym warunkiem do stworzenia takiej sieci musiał być system wielodostępowy, czyli posiadający wiele końcówek jednocześnie korzystających z zasobów centralnego komputera z różnych lokalizacji. Łączenie maszyn, których używa jedna osoba, nie miałoby sensu. Krakowscy rektorzy dogadali się między sobą i doprowadzili do zakupu amerykańskiej maszyny CYBER-72 (identyczna wylądowała w tym samym czasie w Inst[...]

Obchody ŚDSI DOI:

Czytaj za darmo! »

Światowy Dzień Społeczeństwa Informacyjnego (ŚDSI) został ustanowiony 27.03 2006 r. przez Organizację Narodów Zjednoczonych, w miejsce obchodzonego wcześniej 17 maja Światowego Dnia Telekomunikacji. Łącząc dawne określenie święta obchodzonego w tym terminie z nową nazwą przyjętą przez Zgromadzenie Ogólne ONZ, Międzynarodowy Związek Telekomunikacyjny (International Telecommunication Union, ITU), postanowił obchodzić 17 maja jako Światowy Dzień Telekomunikacji i Społeczeństwa Informacyjnego (ŚDTiSI). Obie nazwy: ŚDSI i [...]

Recapitulation of the electronic signature interoperability tests DOI:10.15199/13.2015.1.8


  The electronic signature was introduced into European law through Directive 99/93/EC, which was enacted in 1999. In Poland the electronic signature was implemented in 2001 with the enactment of the Electronic Signature Act. Legal regulations give special weight to the qualified electronic signature, which is considered legally equivalent to a handwritten one. The format to be used for a qualified signature was defined by ETSI (European Telecommunications Standards Institute) in three separate specifications, which describe the following formats: XAdES, CAdES and PAdES. As the specifications mentioned above are extensive, signatures created on the their basis may differ widely. The purpose of the first National Electronic Signature Interoperability Test (Narodowy Test Interoperacyjności podpisu elektronicznego - NTIPE, [1, 2]) was to investigate and describe the market of applications used to create and verify the secure electronic signature. Another important consideration was exploration of the problems involved in interactions between different applications, recognition of certificates issued by different certification centers and evaluation of the compliance of signatures thus created with legal requirements. Ten applications designed by both domestic and foreign entities participated in the 2011 tests. For the purposes of NTIPE an original development environment was designed, to allow support of test files, and the entering of test results. A certification center was also created, to issue and manage test certificates, and to add test timestamps. The SD-DSS software, made available by the European Commission, was used to generate test cases requiring an electronic signature. All the results requiring signature verification were checked by means of this application. To verify that a signature complies with the requirements of Decision 2011/130/EU a custom-designed application was used, which automatically confirmed the [...]

« Poprzednia strona  Strona 2  Następna strona »