Przetłumacz Stronę

Poszukaj

Informacje

Od 11.01.2006 odwiedziło mnie: 16441765 internautów

Dobre Strony

Encyklopedia Radiooperatora - sprzęt, informacje, pomoc
Start arrow Ciekawostki
Ciekawostki z Google Earth Drukuj Email
 
Microsoft Word Drukuj Email
Zrób zgodnie z instrukcją:
1. Otwórz pusty dokument "Worda"
2. Wpisz:  =rand(200,99)
(nie zapomnij o znaku równości)
3. Naciśnij "Enter"
4. Poczekaj...
podobno nawet w Microsofcie nie wiedzą czemu tak jest...
 
Alkoholowe nowinki Drukuj Email

  • Najmocniejszy alkohol wyprodukował w okresie międzywojennym Estoński Monopol Alkoholowy. Destylowany z ziemniaków alkohol miał moc 98 procent.
  • Piwo "Baz Super Brew" warzone przez Barrie Parish w browarze w miejscowości Somerby (hrabstwo Leics, Wielka Brytania) zawiera 23 procent alkoholu. Jest to najmocniejsze piwo na świecie.
  • Rekordowa cenę za lampkę wina zapłacono w 1993 roku. 100 gramów wina "Beaujolais Nouveau" w pubie "Pickwick" w Beaune (Wielka Brytania) kosztowało 1453 dolary.
  • Najdroższym alkoholem dostępnym na rynku jest "Springbank 1919 Malt Whisky", którego butelka kosztuje 10 800 dolarów, czyli ponad 43 000 złotych.
  • Pub "Mathaser" w Monachium jest w stanie pomieścić 5500 osób i sprzedaje dziennie 48 tys. litrów piwa.
  • 26 lutego 1999 r. o godzinie 23.00 zebrały się jednocześnie w pubach, restauracjach i barach amerykańskich 197 843 osoby, żeby wznieść Wielki Toast Guinnessa.
  • 22 listopada 1986 r. w San Francisco (Kalifornia, USA) odbyła się największa degustacja wina. Podczas degustacji sponsorowanej przez stacje telewizyjna KOED 4 tysiące osób wypiło 9 360 butelek wina.
  • W grudniu 1985 roku na aukcji w domu aukcyjnym "Christie" w Londynie za butelkę wina "Chateau Lafite", rocznik 1787, zapłacono 157 000 dolarów. Była to najcenniejsza butelka wina. W 1986 r. korek wpadł do środka butelki, psując wino.
  • 14,8 promila alkoholu we krwi miał Tadeusz S., który w 1995 roku jadąc samochodem, spowodował wypadek pod Wrocławiem. Wynik badania był tak nieprawdopodobny, ze powtarzano je pięciokrotnie, zawsze z takim samym rezultatem. Mężczyzna zmarł kilkanaście dni później w wyniku obrażeń odniesionych w wypadku.
Czytaj
 
Superkomputery Drukuj Email

Superkomputery: wszystko, czego nie wiesz, a o co bałeś się zapytać

PC World Komputer

Jaki jest najszybszy superkomputer na świecie? Czy mamy w Polsce bardzo wydajne maszyny? Czy na superkomputerze da się uruchomić Windows? Jaka jest moc obliczeniowa wielkich maszyn i do czego się je wykorzystuje? Czy każdy mógłby złożyć superkomputer? Z jakich procesorów się je buduje? Czy da się łatwo przeliczyć teraflopy na megaherce? Która firma dominuje na liście TOP 500, czyli najwydajniejszych superkomputerów na świecie? Spróbujemy odpowiedzieć na te wszystkie pytania, a przy okazji posłuchamy wypowiedzi specjalistów z warszawskiego ICM - tymi, którzy praktycznie każdego dnia mogą dotknąć najprawdziwszych superkomputerów.

W zeszłym tygodniu miała miejsce premiera kart graficznych opartych na chipsecie ATI Radeon X1900 ( patrz artykuł: "Radeon X1900 XTX podnosi poprzeczkę - http://www.pcworld.pl" ). Przedstawiciel firmy ATI, Chris Hook, powiedział nam wtedy - http://www.idg.pl co następuje: "...Ale żeby mieć wyobrażenie o wartości sprzętu [czyli karty opartej na nowym Radeonie - przyp. ŁB], posłużę się takim przykładem: prezentowany tu system z dwiema kartami CrossFire Radeon X1900, wyposażony w najlepsze podzespoły, kosztował sporo, bo około trzy tysiące euro. Jego całkowita moc obliczeniowa to 1,16 teraflopa. Tymczasem zaledwie 6 lat temu superkomputer DeepBlue o nieco mniejszej mocy obliczeniowej 1 teraflopa kosztował 50 milionów dolarów. ( ... ) Tak więc dużo pieniędzy dziś okazuje się być śmiesznie małą kwotą wobec cen za taką samą wydajność 6 lat temu."

Rzeczywiście, nie ma w tym ani odrobiny czczej przechwałki: superkomputery starzeją się dokładnie tak samo, jak typowe stacje robocze. Budowa dużego klastra obliczeniowego trwa przynajmniej kilka miesięcy - czyli akurat tyle, by na rynku pojawiła się kolejna generacja wydajniejszych procesorów. A jeśli plany przewidują, że centrum wystartuje w przeciągu 2-3 lat, jego konstruktorzy mogą mieć pewność, że użyte w nim podzespoły nie będą należały już do ścisłej czołówki pod względem wydajności. Superkomputer to jednak nie tylko procesor.

Charakterystyczny beczkowaty Cray - kształt komputera nie jest przypadkowy, twórcy maszyny po raz pierwszy natknęli się na granice wyznaczane przez stałe fizyczne


Czytaj
 
Włam przez Photoshopa? Drukuj Email

Włam przez Photoshopa? Phi, to pestka


PC World Komputer

Zgodnie z raportem opublikowanym przez badaczy z Princeton University, niektóre popularne aplikacje AOL czy Adobe zostały napisane bardzo niestarannie z punktu widzenia bezpieczeństwa. Zastosowane w nich sztuczki mogą umożliwiać włamywaczom wniknięcie do systemu operacyjnego.
Zdaniem naukowców, programy domagają się m.in. zbyt wysokich uprawnień ( o czym autor wspominał już też tutaj - http://bigo.pcworld.pl, a to znacząco ułatwia pracę przestępcom.

Jedynym pocieszeniem może być fakt, że błędy te raczej trudno exploitować zdalnie, a po uzyskaniu fizycznego dostępu do maszyny złodziej nie musi wcale wykorzystywać instalacji Photoshopa. Równie dobrze może... wetknąć klucz USB, by posłużyć się funkcjonalnością wbudowaną w sterowniki magistrali, bezpośrednim dostępem do pamięci ( patrz artykuł: "X-Force - grupa do zadań specjalnych - http://www.idg.pl/news/86015.html" )

Nowy cel ataku: aplikacje
Z faktem, że włamywacze coraz częściej będą skupiać się na "bezpiecznych programach" zamiast na systemie operacyjnym, zgadzają się już praktycznie wszyscy w branży. Wspomina o tym zarówno SANS Institute, jak i Michał Jarski z Internet Security Systems: "Będzie coraz więcej ataków na aplikacje uznawane za bezpieczne: przeglądarki plików graficznych, PDF, odtwarzacze multimedialne etc.; nie mówiąc już o Skype, czy przeglądarkach internetowych;

Naukowcy z Princeton ostrzegają, ale niechętnie mówią o konkretnych, znalezionych przez siebie dziurach. Ich zdaniem wiedza ta mogłaby być wykorzystana przez włamywaczy.
 
Indeksowanie świata, czyli Biblioteka Drukuj Email

Indeksowanie świata, czyli Biblioteka

Cały świat w sieci?


„Google ogłasza plan zniszczenia wszystkich informacji, których nie można zindeksować
MOUNTAIN VIEW, CA – Dyrektorzy Google Inc., szybko rozwijającej się korporacji dostarczającej narzędzia do przeszukiwania Internetu i obiecującej »skatalogowanie wszystkich informacji na świecie«, ogłosili w poniedziałek ostatni krok na drodze rozwoju firmy: daleko idący plan zniszczenia wszelkiej informacji, której nie można zindeksować.

– Nasi użytkownicy chcą, by świat był tak prosty, zrozumiały i dostępny jak strona główna Google – powiedział prezes Google Eric Schmidt podczas konferencji prasowej zorganizowanej w siedzibie firmy. – I świat niedługo taki właśnie będzie.

Nowy projekt, nazwany Google Czystka, uzupełni takie popularne serwisy jak Google Obrazy, Google Wiadomości czy Google Mapy, które katalogują powierzchnię całej Ziemi, korzystając ze zdjęć satelitarnych wysokiej rozdzielczości. W pierwszej fazie Google Czystka dyrektorzy zniszczą wszystkie materiały objęte prawem autorskim, których Google nie może wyszukać.

»Rok temu Google zaoferowało zeskanowanie każdej książki na Ziemi w ramach projektu Google Druk. Teraz obiecują spalenie całej reszty« – napisał John Batelle w swoim popularnym serwisie Searchblog. »Dzięki Google Czystka nigdy nie będziesz musiał się obawiać, że twoje wyszukiwanie pominęło jakąś obscure książkę, bo ta książka po prostu nie będzie już istnieć. To samo dotyczy filmów, sztuki i muzyki«”.

Powyższy artykuł ukazał się w satyrycznym, internetowym piśmie „The Onion” i utrzymany jest w konwencji żartu. Ale żartem, wbrew zamierzeniu autora, jest tylko częściowo. Google naprawdę stara się zdigitalizować i zindeksować wszystkie teksty kultury. Na stronie korporacji Google czytamy, że misją firmy jest „zorganizowanie świata informacji i uczynienie jej powszechnie dostępną oraz użyteczną”.

Ale gdy Google mówi o świecie informacji, to tak naprawdę ma na myśli całą informację świata. Eric Schmidt mówił o tym na początku października tego roku podczas konferencji reklamodawców w Phoenix – według obliczeń statystyków świat to nic innego jak 5 milionów terabajtów informacji. Do tej pory Google zindeksowało zaledwie 170 terabajtów. Zindeksowanie reszty zajmie według Schmidta około 300 lat. I Google ten cel traktuje bardzo serio.

Aby go osiągnąć, Google uruchomiło wiele projektów: Google Search (google.com), najpopularniejsza wyszukiwarka internetowa (na początku roku 2004, u szczytu jej popularności, korzystało z niej ponad 80 proc. internautów), Google Scholar (scholar.google.com), wyszukiwarka tekstów naukowych dostępnych w internetowych repozytoriach, czy spektakularne Google Maps (maps.google.com), które pozwala na oglądanie satelitarnych zdjęć Ziemi w fenomenalnej rozdzielczości.

Biblioteka bibliotek
Uruchomiony w sierpniu 2004 roku projekt Google Print (print.google.com) jest kolejnym krokiem. Oto skonstruowane przez korporację specjalne maszyny skanują całość zbiorów kilku ogromnych bibliotek: w projekcie biorą udział Uniwersytet Michigan, Harvard, Stanford, Oxford oraz The New York Public Library. W sumie kilkadziesiąt milionów tomów. Sam uniwersytet w Michigan ma bibliotekę liczącą siedem milionów woluminów, ich digitalizacja zakończy się za sześć lat. Zeskanowane książki umieszczane są na dyskach ogromnych farm serwerowych Google i udostępniane w Internecie.
Innymi słowy, Google zamieni Internet w to, czym miał być od początku – w Bibliotekę, w której „jest wszystko to, co można wyrazić: we wszystkich językach. Wszystko: drobiazgowa historia przeszłości, autobiografie archaniołów, wierny katalog Biblioteki, całe tysiące fałszywych katalogów, wykazanie fałszywości katalogu prawdziwego, gnostyczna ewangelia Bazylidesa, komentarz do tej ewangelii, prawdziwa relacja twojej śmierci, przekłady wszystkich książek na wszystkie języki, interpolacje z każdej książki we wszystkich książkach”.

Poznają Państwo cytat? To z Biblioteki Babel Borgesa. Jej przekleństwem było to, że choć zawierała wszystkie teksty, jakie zostały stworzone, wszystkie teksty, jakie mogły być stworzone, a nawet wszystkie teksty, jakie nie mogły być stworzone, to była zupełnie bezużyteczna. Będąc całym światem, światu prawdziwemu była zupełnie nieprzydatna, jak mapa państwa w skali 1:1.

„W owym czasie mówiono wiele o Windykacjach: księgi apologii i proroctwa, które na zawsze usprawiedliwiały czyny każdego człowieka wszechświata i przechowywały cudowne tajemnice dotyczące jego przyszłości. Tysiące pożądliwych opuściły ukochane ojczyste sześcioboki i rzuciły się schodami w górę, pędzone przez próżny zamiar znalezienia swej Windykacji. […] Windykacje istnieją (ja widziałem dwie, które dotyczą osób z przyszłości, osób, być może, nieurojonych), ale poszukujący nie pamiętali, że możliwość, aby jakiś człowiek znalazł swoją własną czy też jakiś przewrotny wariant swojej własnej, jest wymierna zerem”.

Interludium metodyczne
Biblioteka, choćby i najbogatsza, jest warta tyleż co wysypisko śmieci, jeśli brakuje w niej dwóch rzeczy: Katalogu i Bibliotekarza.

Bibliotekarzami są wszyscy ci, którzy służą za przewodników po krętych ścieżkach wiedzy – nauczyciele, profesorowie, autorytety. Z kolei katalogi to nic innego jak ubrana w materialną szatę struktura, porządek sztucznie i brutalnie, za pomocą fiszek, alfabetu i reguł ISBD, zaprowadzony wśród wymykających się łatwym kategoryzacjom książek.

Nawiasem mówiąc: zwrócili kiedyś Państwo uwagę na to, że antykwariaty zazwyczaj miewają fenomenalnych bibliotekarzy, jednak nigdy nie widziałem takiego, co by miał katalog, z kolei księgarnie zazwyczaj mają fenomenalne katalogi, rzadko kiedy jednak można tam spotkać prawdziwego bibliotekarza?

Podejście Google do wiedzy jest jedynym możliwym: skoro książek jest zbyt wiele, by nawet najlepszy bibliotekarz mógł służyć wśród nich za przewodnika, należy bibliotekarzem uczynić… sam katalog. Nie może on obejmować już tylko tytułów i abstraktów – musi on objąć książki jako takie i umożliwić bezpieczną nawigację w tym oceanie wiedzy. Dlatego oprócz zindeksowania treści Google stosuje szereg skomplikowanych algorytmów decydujących o kolejności wyświetlania wyników przeszukiwania – te, które potencjalnie będą najbardziej pomocne, lądują na czele listy. W ten sposób będzie można nie tylko szukać określonych fraz, autorów czy słów-kluczy, ale także zadawać systemowi pytania ogólne. Na naszych oczach powstaje więc Biblioteka pozbawiona wad Borgesowskiej utopii – szalony na pierwszy rzut oka projekt, który okazał się nie tylko możliwy do zrealizowania, ale też i zaskakująco praktyczny.

Granice fantazji
Wpływ Google Print (a może szerzej: wszelkich zdigitalizowanych i przeszukiwalnych repozytoriów, bo oprócz tej istnieją jeszcze np. A9.com księgarni Amazon czy uruchomiony ostatnio we współpracy z europejskimi instytucjami kultury podobny projekt Yahoo) na kulturę może być ogromnie subtelny.

Algorytmy z pewnością będą świetne. By sprawdzić ich skuteczność, Google już teraz zatrudniło (zresztą cały czas zatrudnia, jakby ktoś szukał pracy) wielu prawdziwych bibliotekarzy, mających oceniać działanie całego systemu. Ale jak długo będą oni potrzebni? Czy system w pewnym momencie nie zacznie uczyć się sam?

Wchodzimy w rejony zarezerwowane zazwyczaj dla science-fiction. Dziś, gdy przyszła Biblioteka ciągle otoczona jest cyfrowymi rusztowaniami, możemy tylko się domyślać możliwych scenariuszy. Algorytmy zautomatyzują proces dostępu do wiedzy. Będą wykorzystywane nie tylko przez studentów – jako narzędzie docenią je także wykładowcy budujący na ich podstawie programy nauczania, piszący syllabusy i prace doktorskie. Zmienią pejzaż nauki i zrewolucjonizują statystyki cytowań, zmienią pozycję i zadania czasopism naukowych. Ale wpływ nie ograniczy się do sfery nauki – z Google Print będą korzystać wszyscy użytkownicy kultury.

Jaki wpływ na krajobraz znanego nam świata będzie miała automatyzacja dostępu do tekstów kultury? Czy zrealizuje się scenariusz czarny, jak z prozy Philipa K. Dicka epatującej wizjami informacyjnego świata poddanego totalnej kontroli, czy może raczej komiczny, jak w twórczości Lema, gdzie inteligencja automatów prawie zawsze okazuje się tyleż imponująca, co kompletnie nieużyteczna? A może komputer trzeba będzie w końcu wyłączyć, jak w Odysei kosmicznej 2001 Kubricka? A może tym razem wyłączyć go już się nie uda?

Wyniki przeszukiwania mają to do siebie, że same w sobie nie znaczą. Nawet najinteligentniejsze algorytmy nie zastąpią bibliotekarza, który nie tylko znajdzie odpowiednie dzieła, ale także będzie potrafił zweryfikować ich prawdziwość, nauczy nas tradycji intelektualnej, wyrazi opinię, wreszcie oprócz wiedzy przekaże nam to trudno uchwytne coś, co stanowi o specyfice akademickiej (lub dowolnej innej) kultury. Może się więc okazać, że algorytmy zbudują na nowo tożsamość akademii, staną się uzasadnieniem jej istnienia, z powrotem zwrócą uwagę na współczynnik humanistyczny. Może.

Wirtualne imperium
Informacja to pieniądz. Kilka bitów reprezentujących miecz Destiny w grze internetowej World of Warcraft na wolnym rynku kosztuje obecnie od 50 do 80 prawdziwych dolarów. Chińczycy już od paru lat prowadzą fabryki, w których współcześni niewolnicy od rana do nocy grają w gry, by zarabiać prawdziwe pieniądze. Co tam Chińczycy. Już dziś mniej niż 10% będących w obiegu pieniędzy ma formę fizyczną: banknotów, akcji czy weksli. Cała reszta to czysta wirtualność.

Nic dziwnego, że amerykańskie stowarzyszenie autorów wytoczyło właśnie Google proces, bojąc się, że powstanie Google Print zniszczy podstawy ich bytu. Autorzy mają rację – po powstaniu wielkiej biblioteki pisanie i sprzedawanie książek już nigdy nie będzie takie samo, a narzędzia kontroli w dostępie do informacji to dla handlarzy „własnością intelektualną” kwestia życia lub śmierci.

Władza jako dostęp do informacji
Siła instytucji, która jest jedynym strażnikiem dostępu do wiedzy, w czasach czwartej fali, gospodarki opartej na informacji, jest ze swej natury siłą ogromną. Czy hasło „Don’t be evil” pod którym Google prowadzi swoją krucjatę wystarczy, by instytucji tej zaufać? Szybko może się okazać, że jest ona nie tyle pomocnym Bibliotekarzem, ile Strażnikiem Biblioteki, internetowym Jorge z Burgos twierdzącym że Komedia Arystotelesa nigdy nie istniała.
Są precedensy. Po latach opierania się jesienią 2004 Google włączyło się w tworzenie Wielkiego Cybermuru Chińskiego, którego efektem jest m.in. to, że Chińczycy po wpisaniu w wyszukiwarkę haseł takich jak „prawa człowieka” otrzymują w wynikach wyłącznie strony zaakceptowane przez rząd. Szefowie korporacji decyzję o włączeniu filtrów podjęli podobno po intensywnej lekturze książek o chińskiej kulturze… Co będzie, jeśli zacznie się grzebać przy wynikach przeszukiwań, usuwać z nich pewne teksty lub przesuwać na miejsca tak dalekie, że odnalezienie ich będzie dużo mniej prawdopodobne? Czy taka instytucja powinna być pozbawiona demokratycznej kontroli?

Nie chodzi tu tylko o politykę. Istotne jest także to, że tą silną instytucją będzie firma komercyjna nastawiona na maksymalizację zysku. Dość przerażająca tendencja do prywatyzacji informacji za pomocą patentów i prawa autorskiego oraz do ograniczania dostępu do wiedzy w imię zysku tym samym jeszcze bardziej się wzmocni. Google przy każdej książce umieści informację handlową o wydawcy i najbliższej księgarni, a książki obciążone zapisami prawa autorskiego (obecnie obowiązujące prawo mówi, że jest to siedemdziesiąt lat po śmierci ostatniego z autorów, czyli średnio jest to grubo ponad sto lat od powstania dzieła) będzie można co prawda wyszukiwać, ale już nie przeczytać.

Strach dzieckiem niepewności
Trudne do uniknięcia, a częściowo nieprzewidywalne konsekwencje są przyczyną zarówno nadziei, jak i strachu. Jean-Noël Jeanneney, dyrektor Bibliothèque Nationale de France, od pół roku intensywnie lobbuje w Brukseli na rzecz powołania konkurencyjnego, europejskiego projektu. Dziewiętnaście największych europejskich bibliotek (w tym wiele niemieckich i austriackich) poparło projekt, ogłaszając, że Google Print jest zagrożeniem dla europejskiej kultury i wzmocni hegemonię kulturową świata anglojęzycznego.

Nie jest to bynajmniej wyraz nacjonalistycznego strachu – już teraz internet znacząco zmienił układ sił choćby na istotnej dla każdego uniwersytetu mapie cytowań. Teksty, które nie są dostępne w sieci lub są dostępne w języku innym niż angielski, mają znacznie mniejsze szanse na odbicie się szerszym echem wśród naukowej społeczności.

Po protestach Google zaczęło gorąco zapewniać, że nie zamierza poprzestać na indeksowaniu zawartości książek anglojęzycznych. To nie dziwi – projekty totalne wymagają zastosowania totalnych środków.

Emocje są ogromne, bo jedno jest jasne dla wszystkich. James Hilton, bibliotekarz uniwersytetu w Michigan, powiedział to wyraźnie: pewnego dnia dzieła, których nie będzie można wyszukać w sieci, nie będą czytane. I „nie chodzi o to, że wszyscy będą czytać książki on-line, na ekranach komputerów. Chodzi o to, że książki, których nie będzie on-line, nie zostaną znalezione”.

Czarna informacja
Jak to się stało, że to właśnie Google ma w rękach klucz do świata przyszłości? Sukces tej firmy to wynik zupełnie innego niż u konkurencji podejścia do informacji. Portale internetowe końca lat 90. wyglądały identycznie – setki linków upchniętych na niewielkiej powierzchni strony głównej. Portal, brama do świata informacji, próbował zaoferować wszystko, co możliwe. Ta strategia mogła działać, dopóki komputer był dobrem rzadkim, dopóki siadało się do niego tylko raz na jakiś czas. Ale teraz większość z nas tkwi przed komputerami od rana do nocy, bo niezależnie od zawodu wszyscy zajmujemy się tym samym: przetwarzaniem informacji. Pracujemy na taśmie, która nieustannie przyspiesza. Dostajemy coraz więcej e-maili, od pracy odrywają nas alerty, wiadomości, SMS-y. Nadmiar informacji zaczyna uniemożliwiać pracę, utrudniać skupienie, zajmować cenne zasoby na odsianie śmiecia od kilku wiadomości istotnych. Google ze swoją ascetyczną stroną wyszukiwania było strzałem w dziesiątkę nie dlatego, że pomaga nam znaleźć informacje potrzebne, tylko dlatego, że odgradza nas od informacji niepotrzebnych.

Biblioteka przyszłości, czy to zrobiona przez Google, czy to przez kogo innego, także musi opierać się na zasadzie wykluczenia. Każdej informacji przyswajanej przez nas towarzyszyć będzie czarna materia informacji dotyczących tego samego tematu, ale pominiętych. I – podobnie jak czarnej materii we wszechświecie – czarnej informacji będzie dużo, dużo więcej. Zawsze.

Jarosław Lipszyc