Archive for Luty, 2013

Ktoś musi to napisać!

Sprzęt to tylko jedna z potrzebnych rzeczy, by uruchomić aplikację. Drugą z nich jest język, w którym zostanie ona napisana. Mimo, że dziś wiele jest języków programowania różnego poziomu (choćby ASSEMBLER będący językiem najniższego poziomu, komunikującym się bezpośrednio z procesorem bez wcześniejszej kompilacji), to tylko niewielka grupa zyskała na tyle przychylności i popularności, że warto znać choćby podstawy. Jednym z tej grupy jest z pewnością C++. Jest to język przeznaczenia ogólnego (czyli można w nim pisać wszystko – gry, programy do liczenia czy edytory tekstu). Charakteryzuje się świetną wydajnością skompilowanego kodu i możliwością operacji międzypoziomowych, czyli korzystania np. z poziomu zerowego i komunikowania się bezpośrednio ze sprzętem. Został on stworzony przez Bjarne Stroustrupa jako rozszerzenie starego C. Twórcy brakowało obsługi abstrakcji danych i tarczy kontroli typów, więc wyszedł z własnym rozwiązaniem. Od początku kładł nacisk na zgodność między tymi dwiema językami, traktując C jako ważnego i nadal aktywnego przodka, więc powstałe różnice nie są znaczące. Język ten nie jest niczyją własnością, a ilość specjalistów od niego dziś szacuje się na trzy miliony. Chociaż język ewoluuje, jego „trzon” pozostaje taki sam, a sama składnia i zapis logiczny jest wzorem do naśladowania. Korzystają z niej choćby PHP – język stosowany w Internecie, do tworzenia olbrzymich aplikacji internetowych.

Wujek wszystkich internautów

A mówią, że Internet nie jest miejscem rodzinnym, a wyobcowaną, zimną cyberprzestrzenią. Siergiej Brin i Larry Page w 1998 roku postanowili to zmienić. Wprowadzili nowatorski system analizy odnośników hiperlinkowych dostępnych na stronach internetowych (nazywany BackRub, potem przemianowany i przerobiony na PageRank), który wykorzystali w wyszukiwarce internetowej. Mimo ciężkich czasów (załamanie dot-comów i pryśnięcie bańki internetowej, kiedy to każdy kto miał stronę internetową chciał zarabiać krocie), Google Incorporated utrzymało się na powierzchni i dziś jest jedną z największych firm na świecie. W chwili obecnej Google zatrudnia ponad pięćdziesiąt cztery tysiące ludzi, według których jest to jedna z najlepszych prac na świecie. Firma oferuje wiele więcej, niż tylko wyszukiwarkę (chociaż to z niej słynie). Wraz z upływem czasu, do oferty wprowadzono pakiet biurowy (zawierający edytor tekstu, arkusz kalkulacyjny, kreator prezentacji), usługę pocztową (najpopularniejsza na świecie skrzynka @gmail.com), kupiono największy na świecie serwis wideo YouTube.com oraz wprowadzono usługi pozwalające na zarabianie na stronie i promowanie się na innych (AdWords, AdSense). Ostatnio oferowane są też programy desktopowe, jak Google Chrome, Google Picasa czy Google Desktop. Mimo że Google prężnie się rozwija, zmiany nie są drastyczne, więc użytkownicy nie czują, że są do czegoś zmuszani bądź stawiani pod ścianą.

Zwycięzca w walce z Apple?

Kiedy Apple wprowadził swojego iPhone’a, świat czekał, kto podejmie wyzwanie rzucone przez Amerykanów. Rękawicę podniosło Google – potentat internetowy, znany jednak ze świetnej wyszukiwarki, nie z systemu operacyjnego. A jednak. W oparciu o darmowego Linuxa, programiści z Google’a osiągnęli coś lepszego, niż udało się to Steve’owi Jobsowi. System, który mimo że jest zamknięty, pozwala na masę wolności. W przeciwieństwie do iPhone’a, sklep z aplikacjami Google Play oferuje setki tysięcy darmowych programów do użytku domowego i komercyjnego. Od prostych stoperów, mierników, kalendarzy do nawet edytorów tekstu, menadżerów plików, edytorów graficznych czy w końcu – olbrzymich gier, których nie powstydziłyby się (zarówno graficznie jak i pod względem rozgrywki i możliwości) konsole stacjonarne takie jak Sony PlayStation 3 czy Microsoft XBOX360. Android zaczynał skromnie, będąc najpierw niezbyt obrotnym systemem pozwalającym – poza dzwonieniem i pisaniem SMSów, na bardzo niewiele. Dopiero z czasem programiści wypuścili przystępne API, a producenci usług trzecich frameworki pozwalające nawet laikom znającym podstawy JavaScriptu czy Javy pisać gry i programy, które potem – za darmo – mogą sprzedawać lub za darmo udostępniać całemu światu. Jest to coś, na co iPhone’a prawdopodobnie nigdy nie będzie stać, ponieważ polityka Apple jest bardziej nastawiona na zysk. Jest to dwusieczna opcja, z jednej strony – nagradza pracę, z drugiej – ciężej się wybić.

Prawie jak książka na biurku

Minifikacji ciąg dalszy. Rozmiary komputerów od dawna były bolączką. Pierwsze urządzenia zajmowały całe pokoje, potem całe ściany, jeszcze później – całe biurka. Teraz niektóre mieszczą się w kieszeni, chociaż wydajnością nie grzeszą. Użytkownicy domowi chcą coś pomiędzy – wydajny komputer, który nie zaśmieci im całego biurka. Firma Sapphire może mieć na to radę. Ich seria EDGE HD to komputery mini-PC wielkości dobrej książki. Ten energooszczędny (pobór mocy to tylko trzydzieści watów) „potwór” wyposażony jest w procesor Intel Celeron 847, dysk o pojemności trzystu dwudziestu gigabajtów, cztery gigabajty pamięci RAM, trzy porty USB, moduł WI-FI i świetnie nadaje się dla każdego. W domu – do pracy i niewymagającej zabawy (gier na tym nie uruchomimy, ale wyświetlimy fotki i filmy, posłuchamy muzyki, przejrzymy Internet, napiszemy list czy zrobimy prezentację), w pracy – do edycji tekstów, liczenia czy nawet pisania programów pomocniczych, w miejscach użyteczności publicznej (jako kioski informacyjne używające choćby ekranów dotykowych). Urządzenie takie świetnie radzi sobie z filmami w wysokiej rozdzielczości, a dzięki modułowy Wi-Fi bez problemu może stać nawet na półce, podpięte do prądu i do wyświetlacza, Internet biorąc „z powietrza”, czyli w sygnału wysyłanego przez router. Takie rozwiązanie idealnie nadaje się do centrum multimedialnego, szczególnie kiedy podłączy się do niego zewnętrzny napęd Blu-Ray.

Gdzie to podłączyć?

Wielu laików twierdzi, że komputer to skrzynka ze sprzętem. Nowe części po prostu się tak kładzie, a one same znajdą sobie kable, złącza i dopasują się do reszty, prawie tak, jak podczas operacji na organizmie żywym. Nic bardziej mylnego. Każde, nawet najmniej ważne urządzenie ma swoje miejsce i rolę. Przeznaczone nań kable do transferu danych, do zasilania, a także wejścia w płycie głównej. No właśnie, to płyta główna stanowi swoistą mapę dla sygnałów wysyłanych i odbieranych przez wszystek podpięty doń sprzęt. Są tam wejścia na procesor (wraz z uchwytami na chłodzenie), sloty na karty graficzne (nierzadko na więcej niż jedną, a nawet na cztery), na karty rozszerzeń (kartę muzyczną, inne karty, np. do kontroli dysków), wejścia na przewody do transferu danych od dysków i napędów oraz wejście na zasilanie od zasilacza. Wiele takich urządzeń dziś rezygnuje z portów ATA (na rzecz nowego standardu, SATA). Jest to problem dla użytkowników mających stare dyski i napędy, ponieważ nie istnieje możliwość korzystania z nich (chyba, że przez kontroler PCI). Ponadto, na jednej ze ścian zamontowane są porty wejścia (dla myszy, klawiatury, urządzeń peryferyjnych, monitora, kamerki i innych). Nierzadko płyty główne oferują też wyjścia zdalne, podpinane z przodu obudowy, na słuchawki, mikrofon, wejścia USB. Wiele płyt głównych od wielu lat oferuje karty muzyczne i sieciowe już ze sobą zintegrowane.

Miejsce na to wszystko

Można mieć najszybszy komputer dostępny na rynku. To i tak nie da nic, jeżeli nie będziemy mieli miejsca, gdzie sprzęt będzie mógł zapisywać i odczytywać swoje rozkazy. Tym miejscem jest dysk twardy. Mimo, że wielu uważa go jedynie za miejsce do zapisu gier, filmów i muzyki, tak naprawdę pełni rolę niemniej ważną, niż procesor. To na nim system operacyjny instaluje swoje pliki, byśmy potem mogli go uruchomić. To na nim każda z aplikacji umieszcza pliki i może działać. Ale co to tak naprawdę jest? Dyski twarde dzielą się na dwie grupy. Pierwsza to klasyczne, oparte na talerzach pokrytych nośnikiem magnetycznym dyski mechaniczne, podatne na uszkodzenia i bieg czasu. W tej chwili jest to najpopularniejszy rodzaj dysku, ponieważ jest to najtańszy możliwy sposób ich tworzenia. Wewnątrz hermetycznie zamkniętego metalowego pudełka znajdują się wirujące z ogromną prędkością talerze (ponad siedem tysięcy obrotów na minutę, niektóre osiągają i dziesięć tysięcy!), na których dane są zapisywane i potem odczytywane. Dyskowi może zaszkodzić dosłownie wszystko, dlatego raz włożony najlepiej zostawić na miejscu. Upadek nawet z kilku centymetrów może okazać się tragiczny w skutkach. Duża ilość kurzu, pary wodnej czy czegoś podobnego również może skutecznie zakończyć pracę sprzętu. Drugi rodzaj dyski SSD (Solid State Drive) oparte o pamięć flash. Są to nowe produkty, bardzo drogie, jednak pozbawione wszystkich wad poprzednika.

Najpopularniejszy z nich wszystkich

System operacyjny to coś, bez czego żaden komputer nie może pracować. To on koordynuje, co właśnie robimy, pozwala na operacje na plikach, uruchamianie pisanych dla niego aplikacji i tak dalej. Najpopularniejszy system operacyjny to bez wątpienia Windows. Najczęściej używany jest chyba najbardziej udany Windows XP, jednak jego młodszy brat – Windows 7 stara się go wyprzedzić w wyścigu popularności. Windows Vista to z kolei najgorsza odsłona. Pierwszy Windows to tak naprawdę nakładka graficzna na MS-DOS (system operacyjny operowany ręcznie przez komendy). Oferował co prawda tylko pulpity, jednak „pod maską” miał własne sterowniki, swój system plików, używał aplikacji zewnętrznych. Kolejne, hybrydowe (połączenie szesnastu i trzydziestu dwóch bitów) systemy oferowały coraz więcej, jednak nada były niekonieczne dla poprawnego użytkowania. Wszystko zmieniło się z Windowsem 95. Jego następca, Windows 98 to jedno z najbardziej udanych dzieci Microsoftu. Oferował już długie nazwy plików, bezproblemowe połączenie z Internetem i dużą wygodę użytkowania. Potem był Windows Millenium, jedna z gorszych dystrybucji, głównie dlatego, że poza dużymi wymaganiami sprzętowymi i lekko odświeżoną grafiką, nie oferował niczego. Windows 2000 oparty został na jądrze NT, co od razu wskazywało, że nadaje się jedynie do pracy. XP połączył oba systemy i stał się niedoścignionym wzorem dla swoich następców.

Serce i mózg komputera

Każde urządzenie, nawet najmniejsze, posiada coś na kształt procesora. Im ten jest lepszy, tym sprzęt może pracować wydajniej. Ale, co to w ogóle jest? Procesor to urządzenie cyfrowe sekwencyjne pobierające dane z pamięci, interpretuje i je i wykonuje. Posiada tak zwaną listę rozkazów, którą narzuca producent, a która zawiera proste komendy, które są używane podczas interpretacji. To urządzenie najczęściej jest w formie układu scalonego (używa się w nim złota, bo tylko ono praktycznie się nie utlenia). W środku tego zamkniętego hermetycznie pudełka jest monokryształ krzemu, na który naniesione są warstwy półprzewodników, tworzących od kilkunastu do kilku tysięcy, sieć tranzystorów. Jedną z podstawowych cech procesora są tak zwane „słowa”, których długość cechuje ilość bitów. Dziś najpopularniejsze są procesory sześćdziesięcioczterobitowe. Dziś prawie wszystkie układy są wielordzeniowe, oznacza to, że w jednym „pudełku” są dwa lub więcej procesorów połączonych ze sobą tak, by działać albo naprzemiennie, albo sekwencyjnie. Najpopularniejsza seria procesorów wielordzeniowych to Core2Duo amerykańskiego koncernu Intel. Zbudowany został na bazie architektury sześćdziesięciopięcionanometrowej Conroe. Najłatwiejsze i najbardziej znane rozkazy dla procesora to między innymi kopiowanie (zapis i odczyt do pamięci), proste działania arytmetyczne (dodawanie, odejmowanie, porównanie liczb, zmiana znaku liczby), działania na bitach (iloczyn logiczny, suma logiczna, negacja).

Redefinicja słowa „tablet”

Kilka lat temu słowo „tablet” nie mówiło nikomu wiele. Jedynie niektórym grafikom coś świtało. Było to urządzenie podobne do myszki z podkładką. Miało tzw. ekran rysujący i dołączone piórko (wyglądające przeważnie jak drogi długopis). Stosowało się to do tworzenia zaawansowanych obrazów, malowania czy rysunków technicznych. Wszystko jednak odbywało się na ekranie komputera. Tablety z wyświetlaczami były bardzo drogie i trudnodostępne. Do niedawna. iPad to młodszy brat iPhone’a. Prawie dziesięciocalowy ekran dotykowy czyni z niego produkt za duży na telefon komórkowy, ale jeszcze za mały na komputer. Jest to idealne rozwiązanie dla osób, które nie chcą taszczyć ze sobą notebooka ani netbooka tylko po to, by poczytać książkę elektroniczną (np. kupioną w formie PDF), przeglądać Internet mobilny (w hotspotach, przez sieć telefoniczną itd.) czy nawet popisać. Do tego można słuchać tu muzyki, oglądać filmy i seriale. Całość działa w oparciu o zmodyfikowany specjalnie na tę okazję system Appe Mac OS X 5. Dzięki procesorowi o taktowaniu jednego gigaherca wydajność nawet w plikach wideo o wysokiej rozdzielczości nie powinna być niska. Początek sprzętu był sukcesem. Konsumenci (nie tylko zwolennicy Apple biorący wszystko, co Jobs serwował) pokochali połączenie czytnika książek typu Kindle i telefonu iPhone okraszonego dużym, wygodnym wyświetlaczem. iPad doczekał się kolejnej wersji z większym wyświetlaczem typu LED, lepszym procesorem i większą ilością RAM.

Pionier mądrych telefonów

Wydaje się, że smartphone’y, czyli telefony komórkowe, które mają możliwości prawie jak obecne komputery, były z nami od zawsze. Niewielu pamięta, jak było bez nich. Nic dziwnego, uczą takiej wygody, że po tygodniu obcowania nie dość, że znamy na wylot funkcje, to nie potrafimy bez niego iść po zakupy, bo lista jest na specjalnej aplikacji. Ale, jak to się zaczęło? To prawie sześć lat, odkąd pierwszy iPhone od Apple opuścił sale produkcyjne i trafił do kieszeni konsumentów. Był wtedy przełomem na miarę kolorowych telewizorów, bo pozwalał – prócz dzwonienia i wysyłania wiadomości tekstowych – słuchać muzyki, robić i oglądać zdjęcia i filmiki wideo, przeglądać strony internetowe i łączyć się z routerami Wi-Fi. Wszystko było obsługiwane przez dotknięcie niemalże magicznych ikonek na ekranie – bez żadnych przycisków. Klawiatura QWERTY również była oferowana, jako usługa ekranowa. Najnowsza teraz wersja ma numer piąty i – według użytkowników – nie wnosi wiele innowacji. Mimo czterocalowego LEDowego ekranu, aparatu z ośmioma megapikselami i całym wachlarzem usług multimedialnych i olbrzymim wyborem aplikacji, to starszy brat – iPhone 3G jest uważany za króla wśród telefonów Apple. Twórcy znają jednak sposób, by zmusić konsumentów do migrowania na coraz to nowsze odsłony. Nowe aplikacje wymagają coraz to nowszych firmware’ów, a to przenosi się na prosty problem – masz stary model, nie masz nowych aplikacji.