Kontynujemy publikacje cyklu artykułów o II fazie rewolucji cyfrowej. Będą się one ukazywały w kolejne piątki.
Spis treści
1. Definicja II fazy cyfrowej rewolucji i korzyści dla konsumenta
2. Cloud computing
3. Wybrane usługi konsumenckie oferowane na bazie cloud computing
- telewizja hybrydowa
- telewizja OTT
- VSaaS - sposób na bezpieczeństwo
- M2M
- wybrane usługi na tablety i smartfony
4. Omówienie technologii telekomunikacyjnych mających podstawowe znaczenie dla rozwoju cloud computing.
W pierwszej części stwierdziliśmy, że konsument będzie miał w niedalekiej przyszłości dostęp do najbardziej zaawansowanych usług oferowanych w sieci za pomocą prostych urządzeń terminalowych (tablety, telefony, smartfony, telewizory, domowe centrale sterujace), bez potrzeby instalowania specjalistycznego oprogramowania.
Ze swojego terminala będzie wysyłał zapytanie, które zostanie przetworzone z użyciem najardziej zaawansowanych systemów informatycznych i odpowiedź zostanie przekazana na terminal.
Cloud computing
Na rynku konsumenckim symbolem II fazy rewolucji cyfrowej są smartfony i tablety, a na rynku profesjonalnym cloud computing.
Cloud computing, czyli „przetwarzanie w chmurze” to sposób korzystania z usług informatycznych bez konieczności zakupu sprzętu o odpowiedniej mocy obliczeniowej, instalowania oprogramowania, czy administrowania nim.
Istotę cloud computing stanowią data center i szybkie sieci transmisyjne pozwalające na wymianę informacji.

Jak do tej pory, na budowę globalnej struktury data center mogą sobie pozwolić giganci, tacy jak Google, Microsoft czy Amazon
Data center to obiekty wyposażone w systemy komputerowe do przetwarzania i gromadzenia informacji (systemy pamięci masowej) połączone wysokiej jakości łączami telekomunikacyjnymi z klientami.
Obiekty te są znakomicie chronione, wyposażone w pewne systemy zasilania, wspomagane zasilaniem awaryjnym, zabezpieczone przed pożarem i kataklizmami takimi jak trzęsienia ziemi i powodzie.
Klasę obiektu ze względu na zabezpieczenia określa się za pomocą 4-stopniowej skali Tier Level; przykładowo w najwyższej klasie pewność zasilania powinna być na poziomie 99.995%.
Koszt budowy współczesnego nowoczesnego data center to około 500 - 1000 milionów dolarów.Największe data center buduje obecnie firma Apple w miasteczku Maiden (3300 mieszkańców) Karolinie Północnej — 50 000 metrów kwadratowych, niewiele mniejsze — 40 000 metrów kwadratowych zbudowano dla nowojorskiej giełdy. Do budowy największego w Europie Wschodnie przymierza się w Warszawie firma Atman — 10 000 metrów kwadratowych.

Data Center firmy Facebook Oregon- Prineville. źr. www.facebook.com
Jednostką podstawową, zdolną do samodzielnej pracy, w data center jest serwer. W obecnie budowanych obiektach (np. Amazon) zaczynają być stosowane moduły kontenerowe zawierające np. 1000 serwerów. W razie konieczności wymiany, czy naprawy wystarczy wyjąć kontener i zastąpić go nowym.

Moduł kontererowy data center prezentowany na targach CeBIT 2011 przez firmę Rittal w górnej części zabudowany jest system chłodzenia
Konsument korzysta z usługi dostarczanej poprzez sieć, posługując się uniwersalnym terminalem, którym może być: smartfon, tablet, komputer czy nawet telewizor.
Ze swojego terminala wysyła do data center zapotrzebowanie na usługę.
W centrach danych, wyposażonych w komputery o ogromnych mocach obliczeniowych i zasobach pamięci, usługa jest realizowana i przekazywana poprzez łącza telekomunikacyjne na terminal użytkownika.

Przykładowe usługi realizowane w w pierwszej fazie rozwoju cloud computing
Najstarszą usługą tego typu są konta pocztowe dostępne poprzez przeglądarkę. Z czasem, wraz z rozwojem
data center i wzrostem szybkości transmisji coraz bardziej zaawansowane usługi będą dostępne w tej formule.
Najpopularniejsze aplikacje, które były przetwarzane w data center czerwcu 2011 roku - jako terminale analizowano telefony i smartfony
Zapotrzebowanie na usługi cloud computing rośnie w szybkim tempie. Amazon wprowadził niedawno jedną z najprostszych usług cloud computing- składowanie danych (Amazon S3).
Jednostką podstawową przy tej usłudze jest tzw. obiekt czyli po prostu plik o zdefiniowanej wielkości do 5 GB.
W ubiegłym roku Amazon przechowywał w pierwszym półroczu 150 miliardów obiektów, w bieżącym już 339 miliardy (stan czerwiec 2011).
O skali zapotrzebowania na usługi oferowane przez data center świadczy gigantyczny przyrost "produkcji" nowych danych
Według raportu Digital Universe, w 2011 roku zostanie wytworzone i zmagazynowane 1.8 zettabajta informacji (1 zettabajt to miliard terrabajtów), a w ciągu bieżącej dekady wytwarzanie i magazynowanie informacji wzrośnie 10 razy.
Dla porównania, amerykański lingwista Mark Liberman szacuje, że do zapisania tego, co wszyscy ludzie powiedzieli na przestrzeni całej naszej historii wystarczy 42 zettabajtów (digitalizacja 16 kHz /16 bit).
Po erze PC stacjonarnych i laptopów, czyli pozyskiwania danych przy biurku, nadchodzą czasy smartfona - asystenta obecnego we wszystkich sytuacjach życiowych, inteligentnych central sterujących domem, czy też nowej generacji telewizorów.
Urządzenia sterowane głosem, pozwalające między innymi na:
- tłumaczenie obcych języków (bezpośrednio w trakcie rozmowy, bądź audycji),
- przetwarzające dane o korkach ulicznych - tak aby wybierać optymalne trasy dojazdu,
- rozpoznające obiekty,
- wyszukujące najbardziej atrakcyjne oferty handlowe,
- przekazujące na życzenie wybrane obrazy telewizyjne,
- przesyłające prognozy pogody w czasie rzeczywistym,
będą zasilane informacją przez gigantyczne centra obliczeniowe.
Program budowy infrastruktury do korzystania z cloud computing przewyższa wielkością nakładów i skomplikowaniem wszystkie dotychczasowe zamierzenia informatyczno-telekomunikacyjne .
Do sprawnego funkcjonowania należy jeszcze przebudować sieci telekomunikacyjne stacjonarne, zwłaszcza na odcinku tzw. „ostatniej mili” (FTTH) oraz uruchomić sieci bezprzewodowe 4G.
O wybranych usługach konsumenckich związanych z II fazą cyfrowej rewolucji napiszemy już za tydzień
Inne tematy w dziale Technologie