Dvanáct trendů v
české softwarové
ekonomice
2013
Michal Černý
1
Úvod
Podle Moorova zákona dochází každých osmnáct měsíců ke zdvojnásobení výkonu čipu při konstantní
ceně, nebo naopak ke snížení ceny na polovinu při konstantním výkonu. Tato skutečnost znamená, že
se ICT odvětví, které je právě na součástkách tohoto typu závislé, rozvíjí nikoli lineárně či kvadraticky,
ale exponenciálně.1
Zároveň můžeme směle prohlásit, že nestrmou část této pomyslné vývojové
křivky již máme za sebou.
Lidstvo v průběhu svého vývoje procházelo různými revolucemi, které vždy znamenaly na jedné
straně zásadní otřes společnosti a jejího fungování, ale také prostor pro dramatický a jen velice
obtížně očekávatelný vývoj. Vznik měst a univerzit ve středověku znamenal dramatický rozvoj
vzdělanosti i řemesel, průmyslová revoluce byla signifikantní nejen užitím strojů místo práce lidských
svalů, ale také významným snížením počtu obyvatel vesnice. Je přitom zřejmé, že každá revoluce
s sebou přináší nemalé problémy – ať již šlo o morové rány či závislost na venkově v případě
středověkých měst nebo potřeba péče o chudé, dělníky a přistěhovalce za průmyslové revoluce. V
každém případě však lze říci, že štěstí přeje připraveným.
Nejde přitom jen o připravenost z hlediska dostatečné technologie, intelektuálního a sociálního
kapitálu nebo jiné materiální zabezpečení, ale také o dobrou znalost sociálního a kulturního kontextu.
Ten je přitom pro prosazování nových myšlenek a postupů nezbytný, neboť jeho reflexe umožňuje
odstranit řadu případných problém a krizí ještě dříve, nežli k nim vůbec dojde.
Tato publikace se snaží představit dvanáct trendů, které zásadním způsobem promění softwarovou
ekonomiku, či chceme-li způsob vývoje softwaru a jeho užívání, aniž by u některého z nich zabíhala
do detailů a podružností, které jsou užitečné jen konkrétnímu vývojáři. Snaží se na jedné straně
nastínit a ukázat jejich vzájemné spojení a ovlivňování, ale také provést jejich jednoduchou SWOT
analýzu tak, aby bylo zřejmé, kde jsou výzvy a jaká rizika je v případě jejich implementace do vývoje
třeba zvažovat.
Pokud jde o výběr, snažili jsme se uvážit několik základních kritérií. Především jde o trendy, které
budou ovlivňovat vývoj ICT, ale v určité formě již nyní existují dílčí projekty a pokusy o jejich
implementaci. Nejde tedy o sci-fi, ale spíše o extrapolaci současného vývoje, při zvážení konceptů,
které nabízí teoretická informatika. Druhým kritériem byla spojitost software – nejsou zde
popisovány trendy jako je rozvoj LTE sítí či 3D tiskárny, neboť jde primárně o technologie
hardwarové, ke kterým software přistupuje sice přirozeně, ale jaksi navíc a nepřímo.
Vyházeli jsme přitom z nejrůznějších žebříčků, jako je Horizon Report,2
IEEE Computer Society pro rok
2013,3
Deloitte Technology, Media & Telecommunications Predictions4
a řady dalších. Snažili jsme se
při výběru sledovat ještě dvě důležitá kritéria – předně to, aby jednotlivé trendy pokrývali co možná
nejvíce celou oblast ICT s ohledem na rozvoj informační společnosti jako celku a pak také časové
období jejich masivního nástupu, které klademe do doby 2-5 let. To neznamená, že by dále již nemělo
smysl o nich hovořit, ale že v této době budou tak masivně rozšířeny a etablovány, že bude možné na
1
MOORE, Gordon. Progress in Digital Integrated Electronics.
2
NMC. NMC Horizon Project.
3
IEEE Computer Sociality. Top Trends for 2013.
4
DELOITTE. Technology, Media & Telecommunications Predictions 2013.
2
nich běžným způsobem stavět obchodní model, který povede k prodeji softwaru, tedy že budou
společně vytvářet určité pilíře softwarové ekonomiky.
Ještě dříve, než se do popisu jednotlivých technologií pustíme, zařazujeme dvě úvodní kapitolky,
které jsou pro pochopení celé koncepce publikace kruciální. Jednak jde o stručný úvod do informační
společnosti, který ukazuje šíři oblastí, kterou softwarové produkty zasahují, ale také kontext v oblasti
dopadu na život a chování lidí a také tu týkající se softwaru jako služby, tedy produktu pro
konkrétního zákazníka, s distribučním kanálem, celou i procesem inovace.
Z analýzy trendů vyplývají některé zajímavé skutečnosti. Velká část z nich je těsně spojená
s matematikou, matematickými modely a teoretickou informatikou. Právě dobrá znalost těchto
disciplín tak bude v budoucnu pro vývoj aplikací zcela zásadní a zřejmě tak sníží neustále diskutované
napětí mezi školami teoretickými a aplikovanými. Teoretické modely bude muset dobře znát každý
vývojář, protože budou součástí téměř všech pokročilejších aplikací.
Další, neméně zajímavou skutečností je, že mezi hlavní problémy, které jsou s nástupem ICT spojené,
bude patřit stále více otázka ochrany soukromí a možnost manipulovat s uživatelem.5
Je na
zodpovědnosti a přístupu jednotlivých tvůrčích týmů, aby k jednotlivým tématům přistupovaly
s dostatečnou společenskou zodpovědností. Nikoli jen pro požadavek na nějaké obecné dobro, ale
také s myšlenkou, že jde o jeden z důležitých prvků, podle kterého se uživatelé rozhodují, zda o
danou technologii vlastně stojí či nikoli.
Pro celou softwarovou ekonomiku je pak klíčové tvrzení Richarda Stallmana, že žádná oblast lidského
zájmu nepodléhá toliko módním trendům jako právě software a ICT obecně. Zájem o nové trendy, o
to co je právě in, je často mnohem důležitější, nežli skutečná užitečnost daného řešení.6
Pokud se
podíváme na částky, které jsou vynakládány na malé startupové společnosti, lze říci, že jsou téměř
vždy neadekvátní tomu, jaký aktuální ekonomický potenciál tyto společnosti mají. Investuje se ale do
lidí, myšlenek a trendů. Reflexe významu módních trendů je přitom jednou z nejdůležitějších výbav
stratéga, který zvažuje, které oblasti ICT se bude věnovat.
Pro koho je publikace určena
O své zřejmě nejznámější knize Tak pravil Zarathustra, říká Friedrich Nietzche, že je to kniha pro
všechny a pro nikoho. Této situaci bychom se rádi vyhnuli. Je určena všem, kdo se pohybují
v softwarové ekonomice, světě informačních a komunikačních technologií nebo se podílejí na
vzdělávání a nemají primárně informatické vzdělání. Jednotlivé technologie jsou představovány
s ohledem na studenty, kteří nevědí nic o automatech a gramatikách, neznají síťové algoritmy nebo
nejsou odborníky na logické programování. Partie, které jsou technicky náročnější jsou odsazeny a
čtenář je může – pokud jej nezajímá technický detail – přeskočit.
Na druhou stranu věříme, že také informatikům může být text knihy přínosný – ať již hojnými odkazy
na články a knihy k tématu, kontextuální šíří nebo jen připomenutím a vytažením některých
důležitých trendů, kterým se ne vždy musela věnovat náležitá pozornost.
5
ČERNÝ, Michal. Budoucnost vyhledávání: Mezi soukromím, technologií a legislativou.
6
JOHNSON, Bobie. Cloud computing is a trap, warns GNU founder Richard Stallman.
3
K publikaci je vytvořený web,7
na kterém bude možné si dohledat (nejen) autorovy aktuální články
k tématům, takže by obsah neměl ztratit s časem na aktuálnosti a měl by vzniknout prostor na jeho
další prohlubování a rozvíjení.
7
Dostupný na https://sites.google.com/site/ceskasoftwarovaekonomika/
4
Obsah
Úvod ........................................................................................................................................................ 0
Big data.................................................................................................................................................... 9
Virtualizace............................................................................................................................................ 17
Sémantické technologie: web a desktop............................................................................................... 25
Zpracování přirozeného jazyka.............................................................................................................. 33
Počítačové zpracování emocí ................................................................................................................ 40
IPv6........................................................................................................................................................ 48
Internet věcí .......................................................................................................................................... 56
Rozšířená realita.................................................................................................................................... 64
Complex event processing .................................................................................................................... 72
Bring your own device (BYOD) .............................................................................................................. 79
HTML5 ................................................................................................................................................... 88
Open source .......................................................................................................................................... 96
Vybraná literatura k jednotlivým trendům ......................................................................................... 103
Poznámky pod čarou – použitá literatura ........................................................................................... 112
O autorovi............................................................................................................................................ 121
5
Informační společnost
Samotný pojem informační společnost poprvé zazněl v Norově-Mincově zprávě francouzské vlády
v roce 1975, která rozšířila tradiční chápání telekomunikací i na otázky národní technologické
suverenity a vytyčila vládní iniciativy včetně elektronického občanství. Jde v zásadě o první krok v
dějinách ICT technologií, kdy je občanská společnost spojována s technologickou platformou, která v
této době vzniká – ať se jedná o rychle se rozvíjející telefonní sítě, nebo o nástup výpočetních strojů.
Je přitom zajímavé, že mimo Evropu je informační společnost chápána především v ekonomickotechnologickém
aspektu. Projekty jako Japonská Teletopie či Americká NTIA Telecom 2000: charting
the course for a new century, sledují jednoznačně oblasti, jako je budování telekomunikační
infrastruktury či podpora technologií s cílem posílení konkurenceschopnosti, nikoli primárně sociální
a občanské hodnoty.8
Vliv ICT zásadním způsobem přetváří všechny oblasti lidské činnosti. Tradiční rozdělení hovoří o
změnách v technologiích, ekonomice a struktuře zaměstnanosti, kultuře, ale také ve vzdělávání. Na
tomto místě není prostor pro podrobný popis jednotlivých změn, přesto se pokusíme ve stručnosti
ukázat alespoň základní charakteristiku jednotlivých posunů.
Tahouny ekonomiky i zaměstnanosti jsou dnes firmy spojované s právě s rozvojem ICT technologií a
jejich vlivu na společnost a ekonomiku. V USA lze uvést Google, Microsoft, IBM či Oracle, v Japonsku
například Sony. Ve všech žebříčcích nejúspěšnějších firem lze snadno na předních pozicích
identifikovat ty, které především vhodným způsobem manipulují s informacemi. Byla by ale chyba
vztahovat tyto změny jen na počítačové firmy, neboť zasáhly také další oblasti, které jsou na
informacích a inovacích závislé – farmacii, automobilky, strojírenství, bankovnictví či média. V tomto
ohledu jsou změny mnohem masivnější, než by se na první pohled mohlo zdát.
V ekonomice jsou patrné další transformace, z nichž mezi ty nejviditelnější patří zkracování či
dokonce překrývání ekonomických cyklů, což zásadním způsobem zvyšuje tlak na inovace, vývoj i celý
chod podniku. Vznikají ekonomické niky, které nahrazují klasické segmenty trhu, které byly známé
z klasického industriálního období a lze také hovořit o zásadním vlivu globalizace a mezinárodních
týmů i podnikání na celé obchodní prostředí.
8
ZLATUŠKA, Jiří. Informační společnost.
6
S tím souvisí také změna struktury zaměstnanosti. S nástupem průmyslové revoluce prudce poklesl
podíl osob, které pracovaly v zemědělském sektoru, na úkor sekundární sféry. Situace v první
polovině 20. století postupně nahrávala rozvoji služeb a dnes je možné sledovat, že na úkor všech tří
oblastí se stále větší počet lidí přesouvá do informačního průmyslu. Lze říci, že existuje zcela nová
skupina profesí – informačních analytiků, která do nástupu informační společnosti buď vůbec
neexistovala, nebo se její činnost zásadním způsobem proměnila. Příkladem může být přesun řady
vzdělávacích aktivit na internet, když mezi kantorem devatenáctého století a tutorem, je jednoznačný
rozdíl jak v metodách a způsobu práce, tak také v pracování náplni. Proměnami prochází také
struktura organizací, které postupně opouštějí autokratický, strmě pyramidový model řízení a častěji
se prosazují adhokratický, síťový či projektový přístup k práci.9
V oblasti kulturních změn lze hovořit o zcela nových formách umění i distribučních kanálech, které jej
umožňují pojímat netradičním způsobem. Mezi příklady těchto změn může patřit konec lokálních
lidových umělců, jejichž činnost je omezená jen na určitý kraj a jejich vstup do silně globalizovaného
internetového světa – ať již jde o výtvarný DevianArt, literární Písmák či nejrůznější weby zaměřené
na amatérské fotografování či videa.
Zásadními proměnami prochází také vzdělávání a školství. Je možné se zmínit o e-learningu, jako o
technologii, která umožňuje zásadním způsobem globalizovat i personalizovat výuku, o webinářích,
daty řízeném školství či masivních otevřených kurzech (MOOC),10
které zpřístupňují distanční formou
vzdělání z prestižních světových univerzit každému, kdo o to má zájem. Tyto změny přitom
neznamenají jen významný posun v samotném vzdělávání a vědě, ale také mohou pomoci
v některých sociálních oblastech a v šíření gramotnosti.
Nástup ICT má za následek zásadní změny v oblasti komunikace, která se proměňuje vlivem
fenoménu prostorové komprese. V dnešní době lze provádět videokonferenci v téměř reálném čase i
přes oceán, není nutné dlouho čekat na doručení nějakých zpráv či dat. Tato skutečnost má řadu
rezonancí, mimo jiné v oblasti demokratizace či žurnalistiky. Tlak na rychlost má na jedné straně za
následek větší veřejnou kontrolu a informovanost občanů, ale také může vést k nižší míře ověřování
informací či ztrátě kontextu, což jsou rysy, které se s moderní žurnalistikou neodmyslitelně pojí.
V tomto kontextu se někdy hovoří o časové či prostorové kompresy. Vzdálenost přestává hrát
významnou roli v tom, jak rychle se můžeme dozvědět o nějaké události, nebo zda můžeme s někým
komunikovat. Doba dlouhých polemických dopisů mezi významnými osobnostmi, které měly měsíce
na její doručení a odpovědi je nahrazena možností komunikace v téměř reálném čase. Tato
skutečnost silně determinuje také možnosti spolupráce v mezinárodním prostředí, která je díky
moderním technologiím nejen možná, ale také podobně efektivní jako s kolegy z vedlejšího města.
Doposud jsme si všímali dílčích aspektů změn chování lidí – vždy zde byl daný model chování, který se
díky ICT technologiím určitým způsobem proměnil či posunul. To ale není jediná varianta změny
v informační společnosti. Nové technologie a softwarové možnosti přinášejí také změny zcela
zásadního charakteru v možnostech chování, mění to, jak se může člověk chovat. Příkladem může být
například koncept rozšířené reality, která jen obtížně nachází nějaký protějšek v klasickém
9
FROULÍK, Radek. Nová ekonomika a globální informační společnost.
10
ČERNÝ, Michal. Changes in information literacy in the context of new technologies.
7
industriálním světě. Jestliže se masivně rozšíří, nejen zásadním způsobem ovlivní sociální chování, ale
také například obsah toho, co je vyučováno ve školách.
Podobně možnost pracovat s complex event processing, který umožňuje definovat scénáře chování
systémů na základě nějakých vnějších událostí, mění celý systém fungování podniků, bezpečnostních
systémů a řadu dalších oblastí. Jde o technologické přístupy, které přinášejí zcela nové, netušené
možnosti, takže neumožňují odhadovat změny chování lidí nebo jejich plné využití, protože nemají
analogii v předchozích vzorcích chování.
Robert Reich ve své knize Dílo národů hovoří o vzniku nové skupiny profesí – informačních analytiků,
kteří se budou živit primárně prací s informacemi a jejich vhodným manipulováním. V tomto ohledu
představuje informační revoluci zásadní změnu v chápání stále většího množství profesí, které se
posouvají do oblasti informačního průmyslu.
Pochopení změn, které jsou spojené s existencí informační společnosti a jejich specifik, je klíčové pro
kvalitní a inovativní přístup k tvorbě softwaru. Cesta přímé konkurence existujících řešení je sice
možná, ale zřejmě naplno nevyužívá možností, které se v této době nabízí – zcela nové niky čekají na
obsazení kvalitními, inovativně navrženými produkty, které budou řešit konkrétní úzkou specifiku
potřeb informační společnosti. Její nalezení představuje klíč k úspěchu, možnost definovat zcela nový
přístup či způsob řešení, ve kterém prozatím neexistuje konkurence.
8
Zásadní technologické koncepty
Změny ve fungování softwaru i hardwaru mají zcela zásadní vliv na to, jakým způsobem se bude
vyvíjet celá informační společnost, jaké aplikace budou moci být nasazeny a co to v posledu znamená
pro celou softwarovou ekonomiku. První dvojící trendů, které v publikaci představujeme, jsou big
data a koncept virtualizace. Oba s sebou přinášejí do určité míry zásadní přístup ke zpracovávání dat,
který ovlivňuje všechny další trendy.
Virtualizace vychází z myšlenky, že aplikace či výpočet nemusí probíhat pouze na jednom konkrétním
zařízení, ale že lze zátěž rozložit na více strojů. To s sebou přináší zcela nové možnosti v tom, co lze
výpočetně zvládnout (například data z urychlovače částic v CERNu by nebylo možné v rozumném čase
zpracovat na jednom, třeba i nejvýkonnějším počítači na světě), umožňuje dobré škálování, snižuje
náklady a umožňuje mnohem jednodušší nasazení nejrůznějších aplikací a nástrojů ve velkých
organisacích.
Big data jsou problematikou s virtualizací bytostně propojenou, neboť do určité míry, právě kvůli nim
je celý její koncept tak stěžejní. Možnost operovat s velkými objemy dat, případně je mimořádně
rychle zpracovávat je pro vývoj aplikací a systémů nejrůznějšího druhu velice potřebný a užitečný –
od modelování srážek galaxií po prohledávání sociálních sítí je třeba se vypořádat s konkrétními
nástrahami a problémy, která tato oblast přináší. Současně ale otevírá dveře do světa poznání a
analýzy dat, které se zdály být ještě před několika málo lety uzavřeny.
9
Big data
Big data (někdy překládaná jako velká data) a jejich zpracování představují jednu z nejvíce se
rozvíjejících oblastí informatiky, jak v oblasti teoretického zkoumání a hledání nových postupů pro
jejich analýzu, tak také především v množství existujících praktických aplikací, kterých je dnes již celá
řada. Samotný pojem je přitom v čase značně proměnlivý – zatímco počátkem devadesátých let
mohla data v řádu jednotek či stovek gigabajtů strukturovaného obsahu představovat objem, který
lze zpracovat jen s velkými náklady, dnes jde o relativně malé a běžně analyzované soubory a pojem
velkých dat se posouvá z gigabajtů na stovky terabajtů a více.
Tak, jak rostou výpočetní možnosti, mění se nejen množství dat, které jsme schopni zpracovávat, ale
také jejich zdroje. Velký rozvoj zaznamenávají senzorické sítě, realtimové zpracování obrazu a zvuku
(například při pohybu lidí v nákupních centrech) nebo měřící přístroje, které mohou data nejen
zobrazovat, ale také ukládat pro delší analýzu. To otevírá zcela nové možnosti jejich využití pro
úsporné a optimalizační strategie netriviálních interagujících systémů nebo pokročilé business
intelligence aplikace.11
Také moderní fyzika se běžně potýká s obrovskými objemy dat nejen
v urychlovači částic v CERNu, ale také při zpracování dat z hvězdných teleskopů či při modelování
složitých jevů (srážek galaxií atp.).
Big data lze přitom chápat značně široce – na jedné straně představují problém co do objemu a
náročnosti zpracování (ony galaxie s miliardami různých hvězd a černých děr), času (především tam,
kde je třeba pracovat v reálném čase) nebo ve struktuře (například multimediální data). Obecně lze
identifikovat dva základní trendy v jejich zpracování. První je využití distribuovaného výpočtu, což je
případ cloud computingu či gridových sítí, druhou variantou, která je u určitého druhu dat nutná, je
nasazení velice výkonných superpočítačů.
S big daty se ale lze dnes již setkat téměř v jakýchkoli aplikacích – do vědeckých modelovacích
nástrojů, až třeba po předpokládání provozu na silnicích v navigačních systémech. Velkým trendem
v jejich zpracování je také vizualizace, která může často nahradit pracnou přesnou analýzu
jednotlivých dat.
11
DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat.
10
Vizualizace dat vytvořená firmou IBM zobrazující editační aktivity jednoho z robotů Wikipedie.12
Současná technická praxe
Big data jsou tématem, které hýbe informatikou již relativně velice dlouho, a tak je pochopitelné, že
se postupně objevuje celá řada více či méně zdařilých konceptů, jak k této problematice přistupovat.
Obecně bychom mohli definovat čtyři základní oblasti, ve kterých se jejich obtížné zpracování
projevuje a podle toho navrhnout možné koncepty přístupu.13
Objem – dat je příliš mnoho na to, abychom je uměli zpracovat. Tato kategorie představuje
to, co obvykle chápe pod pojmem big data široká veřejnost. Řešení se nabízejí různá. Zřejmě
nejsnazší cestou je užívání triggerů, tedy zařízeních, která přímo při získávání dat provádějí
elementární analýzu a vybírají jen ta zajímavá. Jde tedy o obcházení problému. Další obvyklé
řešení je například užití distribuovaných výpočtů či gridů.
Rychlost – data potřebujeme zpracovávat téměř v reálném čase. Kritický tak není objem
samotný, ale nároky na odezvu (příkladem může být hledání teroristů na letišti,
prostřednictvím kamer a následná analýza jejich pohybu, mimiky a tělesné teploty). Často se
řeší pomocí NoSQL databází, kde v rychlém zpracování nehledíme na celek, ale zpracováváme
jen některé jeho podstatné informace.
12
Big data. Wikipedia.
13
DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat.
11
Nestrukturovanost - stojíme před problémem, jak vyhledávat v databázích multimediálních
dat jinak, než pomocí metadat či textových popisků (třeba pomocí porovnávání se vzory ve
znalostní databázi – identifikujeme ve filmu Eiffelovu věž a víme, že se odehrává v Paříži atp.).
Nehomogenita a nekonzistence – třeba v případě analýzy dat ze sociálních sítí je problém, že
každá vypadají trochu jinak, má odlišnou strukturu či klíčové parametry. Mezi nejčastější
řešení patří užití grafových databází a algoritmů nad nimi nebo tvorba vlastních sesbíraných
dat a jejich další sekundární zpracování (například databáze článků a abstraktů).
Často ani toto rozdělení není úplně přesné. Obecně platí, že ke každé množině dat je třeba
přistupovat co možná nejvíce optimalizovaným způsobem a obecné poučky spíše ukazují možný směr
úvah než hotová úplná řešení. Užití noSQL databází, které je zmíněno jako řešení celé řady problémů
s big daty, patří mezi relativně kontroverzní metody. Obecně totiž takto postavené databáze
umožňují jen velice slabé možnosti rozšíření či změny struktury tak, aby bylo možné přidat novou
funkci. Také není často zajištěna konzistence databáze nebo její bezpečnost. Móda řešení téměř
jakéhokoli systému s databází pomocí noSQL konceptů je sice zřejmá, ale ve velké části případů jsou
zisky v rychlosti oproti dalším možným problémům spíše zanedbatelné.14
Mezi nejčastější noSQL koncepty lze zařadit především Key-value (klič-hodnota) databáze, které jsou
založeny na myšlence, že ke každému klíči je přiřazena určitá hodnota. Databázový systém umí v
zásadě jen na otázku na klíč vrátit informaci o hodnotě, přidávat a upravovat záznamy atp.
Vyhledávání je tedy možné jen pomoci klíče, který není možné v databázi nějak dynamicky měnit.
Tyto databáze se používají všude tam, kde je třeba zajistit rychlé odpovědi, i třeba za cenu nižších
možností databáze. Časté je řešení, kdy základní dotazy a funkce zajišťuje rychlá key-value databáze a
pokročilejší a náročnější operace pomalejší relační databáze. Tento postup užívá například Facebook
či LinkedIn. Jde o jednoduché řešení pro big data v rychlosti, ovšem za cenu značné redundance, tedy
vyšší ceny výsledného řešení.
Grafově orientované databáze (Graph database) odstraňují jeden z největších problémů relačních
databází, totiž jejich malou škálovatelnost, která je dána pevně nastavenou tabulkou. V řadě případů
je ale potřeba mít flexibilnější řešení, která nabízejí právě grafově orientované databáze. Každý uzel
má mimo vlastních informací uloženy také odkazy na své kolegy (sousední uzly). Tento model je užit
často u sociálních sítí nebo jiných složitých struktur, je náročný na výkon a problémem může být
menší množství již hotových řešení či modulů. Naopak existuje celá řada úkonů, jako hledání nejkratší
cesty (tedy obecně optimalizace cesty mezi dvěma uzly), které se v podobných databázích řeší velice
elegantně a robustně.
Významným omezením na úrovni klasického SQL je tabulková struktura, která umožňuje jen velice
obtížně umísťovat složité objekty a dále s nimi pracovat, jakými jsou například textové dokumenty,
obrázky či audiosoubory. Tento problém se snaží řešit dokumentové či dokumentově orientované
databáze, jejichž jednotlivé implementace se pak liší především v tom, v jakém formátu jsou
dokumenty do systému uloženy (zde se například vyčleňují XML databáze) a jak konkrétně jsou z nich
dolována data.15
14
EELCO PLUGGE, Peter Membrey and Tim Hawkins. The definitive guide to MongoDB: the noSQL database for
cloud and desktop computing.
15
Seriál Nerelační databáze. Zdroják.
12
Stále větší význam má také cloud computing, který umožňuje provádět výpočty mimo mateřský
počítač a dynamicky si alokovat výpočetní kapacitu podle vlastních potřeb. Toto řešení umožňuje
dobrou škálovatelnost, snižuje náklady a současně může být pro vývojáře zajímavým zdrojem příjmů,
když umožňuje například účtovat poplatky za provedené operace. V této oblasti se dnes velice
intenzivně řeší například podpora multimediálního zpracování dat, tvorbo vhodného rozhraní či
optimalizace pro různé druhy výpočtů.16
Cloud computing je ale jen součástí širšího konceptu podpory distribuovaných výpočtů, které
umožňují rozložit kalkulaci složitých operací na více částí, které jsou zpracovávány zvlášť, a centrální
uzel jen spojuje dílčí výsledky dohromady. Typickým příkladem může být například hledání novy na
obloze metodou porovnávání snímků v časové škále. Místo studia celé oblohy zkoumají jednotlivé
méně výkonné počítače jen několik málo úhlových vteřin či minut a v nich hledají cílové objekty.
Hojně užívanou technikou pro práci s big daty je také vizualizace. Samotný proces vizualizace dat se
skládá z několika hlavních fází – od získávání, přes přípravu pro zpracování, filtrování výsledků,
dolování dat, převedení do patřičné formy, pročištění až po interpretaci. Z hlediska vývoje aplikací je
možné se soustředit na libovolnou fázi. Relativně perspektivní se jeví tvorba nástrojů, které by tento
proces umožňovaly bez větší znalosti matematického aparátu.
Návaznost na další technologie
Již výše jsme se zmínili o tom, že big data mají velice těsnou návaznost na distribuované výpočty,
gridové sítě a další metody, které umožňují rozložení výpočetního výkonu na více počítačů, což
snižuje celkovou cenu. Velkým tématem nejbližších let je především podpora mobilních aplikací,
které by umožňovaly díky těmto nástrojům používat telefony jako terminály pro náročné výpočty.
Big data a nástroje na jejich zpracování mají také úzkou návaznost na to, jakým způsobem mohou
pracovat nejrůznější simulační nástroje ve vědě i technice. Každý pokrok v této oblasti umožňuje
podstatné změny ve výpočetních modelech, což nemusí znamenat jen zpřesnění výsledků, ale také
zcela nová kvalitativní zjištění.
Velký význam mají big data také pro nástroje sloužící ke zpracování přirozeného jazyka, které se
s objemem velkého množství dat musí také vypořádat. Zlepšení mohou znamenat pokročilejší
možnou analýzu textu, stejně tak ale věrohodnější syntézu či rozpoznání řeči či otevření možností pro
lepší dialogové systémy.
Důležitými vstupními technologiemi pro big data jsou také metody grafových či biologických
algoritmů a umělá inteligence, což jsou techniky, které umožňují heuristický přístup k datům a jejich
pokročilé automatické zpracování, aniž by musel mít uživatel či programátor dopředu jasno o vlastní
struktuře a povaze dat. Také z hlediska vizualizace a další analýzy lze zdůraznit význam těchto partií
informatiky.
Big data mají velký význam také v nejrůznějších oblastech vědy, ať již jde o fyziku, biologii či chemii
nebo moderní sociologii, která je na modelování společenských jevů do velké míry závislá. Big data
představují klíč ke zcela novým možnostem výzkumu nebo optimalizaci dějů, kterým se dříve
nevěnovala větší pozornost, protože sběr a vyhodnocování dat byly mimo možnosti techniky.
16
HWANG, Junseok; ARAVAMUDHAM, Praveen. Middleware services for P2P computing in wireless grid
networks.
13
Silné stránky a možnosti
Již na začátku kapitoly jsme se zmínili o tom, že big data umožňují zcela nový pohled na svět a to jak v
oblasti přírodních, tak také společenských věd. Moderní fyzika by jen těžko mohla fungovat bez
nástrojů pro pokročilé zpracování velkých dat a to v téměř všech hlavních progresivních disciplínách.
V oblasti studia hvězdné oblohy se používají distribuované výpočty na analýzu proměnných hvězd či
hledání nových objektů, v LHC v CERNu17
je produkováno velké množství dat ze srážek, která jsou
hned filtrována a dále posílána do gridových sítí, kde probíhá jejich zpracování, například s cílem najít
nové částice. Podobně je možné zmínit teoretickou fyziku, která používá big data při simulování
složitých jevů, jako jsou srážky galaxií.
Výše uvedené příklady jsou jen malou ukázkou toho, jaké možnosti se vědě díky big datům a jejich
zpracování otvírají. Budovat složité měřící přístroje, bez možnosti systematického a více či méně
automatického zpracování dat by nemělo velký smysl a význam. Nové aplikace i teoretické koncepty
možnosti efektivního dolování dat budou mít velký potenciál nejen v oblasti komerční sféry, ale také
v klasické vědě v nejrůznějším provedení. Tak, jak se budou rozšiřovat senzorické sítě či internet věcí,
lze očekávat také růst významu tohoto odvětví pro další nástroje.
Lze říci, že big data samotná zřejmě nebudou na první pohled viditelnou vlajkovou lodí moderních
technologií pro koncové uživatele, ale budou stát v pozadí nejrůznějších nástrojů. Ostatně již dnes je
oblast cloudu a big dat vnímaná jako mimořádná, čemuž odpovídá i množství a hodnota akvizic
nových společností, které v této oblasti podnikají.
Big data jsou oblastí s výrazným interdisciplinármím potenciálem. Lze pomocí nich například
navrhovat ideální nastavení toku elektrického proudu v síti, pokud budeme schopni online
monitorovat spotřebu všech koncových uživatelů a interpretovat ji v historickém kontextu18
(například analyzovat špičku odběru v době okolo deváté v Praze). Využívat je lze ale také pro
aplikace v mnohem menším měřítku. Například je možné analyzovat chování zákazníků v obchodech
na základě sledování kamerovými systémy, kdy pro každého zvlášť lze vytvořit mapu, kudy chodil, co
si kupoval a na jaké zboží se díval a na základě těchto dat měnit rozestavení zboží či jeho strukturu.
To, co bylo do velké míry závislé na různých testech několika málo osob v designu služeb, bude
možné rozšířit na chování všech návštěvníků.
Velký význam budou mít také systémy pro business inteligence, které umožní nové manažerské
postupy, založené na značně komplexnějších informacích, než jaké mají vedoucí pracovníci k dispozici
dnes. Možnosti dokonalého měření a porovnávání dat jsou důležitá k lean managementu, který
vyžaduje co možná nejdokonalejší data nejen v reálném čase, ale také jejich komparaci s historickou
zkušeností. Podobně další přístupy k evolučnímu upravování služby představují důležitý prvek
konkurenčního boje, který bude třeba ještě softwarově změnit.
Budoucnost mají nepochybně také nástroje pro uchovávání dat, tedy datové sklady, které hrály
v organisacích často jen roli depozitářů informací, se kterými se již dále nepracuje. Díky moderním
technologiím bude možné aktivně zobrazovat nejrůznější trendy a tím nejen lépe předvídat situaci na
trhu, ale také například odměňovat a motivovat zaměstnance či komunikovat s dodavateli. Znalost,
17
Příkladem může být detektor Alice. Viz. AAMODT, Kenneth, et al. The ALICE experiment at the CERN LHC.
18
Příkladem může být Energomonitor Patricka Zandla.
14
jak se v dané situaci partner zachoval, může hrát v současné době významnou úlohu z hlediska
rozhodovacích mechanismů.
Big data mají také úzký vztah k vizualizaci – řadu problémů či dat lze pomocí vhodně zvolených
mechanismů vizualizovat, což je jednak rychlejší než se pokoušet o nějaké interpretační algoritmické
metody, ale také tato technika umožní lépe pracovat s kontextem. Konzument dat má k dispozici
přehled o vztazích mezi jednotlivými entitami, může je porovnávat a studovat na základě různých
matematických filtrů, což může vést k lepšímu pochopení určitých dějů či struktur.
Big data lze použít pro pokročilé vyhledávání například v sociálních sítích, kde lze analyzovat
spokojenost přátel dané osoby s určitou službou, trendy o kterých se baví nebo politickou náladu ve
společnosti.
Slabé stránky a možné problémy
Nepochybně však big data nejsou technologií, která by byla nutně přijímána všemi s nadšením a
pochopením. Kritiku lze rozdělit do několika vzájemně se mírně ovlivňujících směrů. První může být
ekologický – zpracování obrovského množství dat a jejich neustálé průběžné zpracování představuje
netriviální zátěž pro životní prostředí. Lze se oprávněně domnívat, že díky této technologii poroste
ekologická stopa (alespoň u IT oddělení).
Z hlediska managementu lze zmínit především dvě velké obavy. Předně tyto technologie budou
zatlačovat inovativního ducha vůdců či vizionářů, kteří táhli svá odvětví kupředu. Přehnané spoléhání
na big data může vést k pouhému průměrování a hledání lokálních optim, aniž bychom měli
představu o existenci lepších a komplexnějších postupů. Paradoxně tak může dojít ke zpomalení
vývoje, protože intuice a cit manažera bude do velké míry svazována business inteligence nástroji.
Jeho nadřízení mohou požadovat podložení daného postupu fakty, což není při plánování velkých
skokových změn vždy dobře možné.
Druhá obava, kterou budou mít zřejmě společnou ekologové a manažeři, je přílišná závislost na
informačních technologiích. Nemusí jít nutně jen o strach z techniky, ale v případě extrémních situací,
jako jsou povodně či požár, může dojít k ochromení celého fungování společnosti jen proto, že část IT
podpory nefunguje. Dochází také k pěstování závislosti na práci několika málo IT odborníků, což
z hlediska řízení není vůbec optimální.
Podcenit nelze ani možnost, že relativně draze pořízená infrastruktura – ať již jde o vlastní servery či
gridové sítě nebo využívání nějaké formy cloudu, nemusí přinést patřičné výsledky. Big data mohou
být zpracovávána správným způsobem, analyzována, organisace se podle nich bude chtít chovat, ale
prostě nepřinesou dostatečně novou informaci a zpřesnění, které poskytnou je téměř neznatelné.
V takovém případě by jejich užívání znamenalo pro organisaci finanční zátěž a mohlo by bránit v jejím
rozvoji.
Velkým problémem mohou být také etické rozměry nasazení big dat ve firmách, kde by měla za cíl
sledovat a vyhodnocovat chování zákazníků či zaměstnanců. Dochází zde k silnému narušování
soukromí, což je hodnota, které si obyvatelé evropského kulturního okruhu velice cení. Lidé mohou
vnímat silně negativně, že jsou sledování a z hlediska kantovské etiky dochází k využívání člověka jako
prostředku k dosažení cílů. Jde o oblast, která bude zvlášť citlivá a nejrůznější řešení by měla hledat
15
cesty, jak tento možný problém minimalizovat. Lze očekávat existenci určitého škálování, které ale
může být v rukou manažerů užito špatným způsobem.19
V tomto ohledu lze říci, že může jít o problém úzce související s demokracií a svobodou. Jestliže bude
schopen nějaký režim lépe porozumět chování svých občanů, může s nimi také mnohem lépe
manipulovat nebo proti nim zasahovat. Prostým kamerových systémem je hledání činností
neznámých disidentů problematické, ale pokud užijeme metody masivní analýzy, lze je do velké míry
rychle a snadno odhalit.
Netriviálním problémem je také informační přetížení, což je silný psychologický faktor. Člověk
v informační společnosti je již dnes obklopen ohromným množstvím dat a informací, které k němu
přistupují téměř ze všech stran a neustále. Aktivně probíhají metody hledání filtrů (ať již na úrovni
osobní či třeba firmy), které by tento tok omezovaly. Big data jdou ale přesně opačným směrem a
poskytují další obrovské množství dat navíc. Může tak dojít k dalšímu prohloubení informační
propasti a určité bariéře mezi uživateli a jejich sociální a intelektuální připraveností a technikou.
Posledním problémem, který by měl být jistě zmíněn, je upadající matematická gramotnost. Bez ní
není možné efektivně systémy na zpracování big data nejen navrhovat, ale také ani používat. Běžný
uživatel ani manažer často neví nic o regulárních výrazech, funkcionálním programování ani o
obyčejné matematické analýze. Užívání nástrojů pro big data tak bude často buď unifikované, což ale
bude degradovat jejich možnost, nebo hrozí riziko zcela chybné interpretace dat. V tomto ohledu
bude třeba zřejmě zásadním způsobem navýšit investice do vzdělávání v oblastech, které byly
dlouhou dobu za popelku mezi manažerskými dovednostmi – totiž pokročilé matematiky a teoretické
informatiky.
Současné aplikace
Big data jsou trendem, který je již nějakou dobu řešený a není divu, že oblastí již hotových, funkčních
řešení je relativně velké množství. Prvním příkladem mohou být například všechny sociální sítě, které
se musí vypořádávat s velkými daty jak v objemu, tak také v rychlosti zpracování, často také
v relativně složité struktuře. Již bylo řečeno, že se často volí redundantní řešení, kdy existuje jedna (či
více) key-value databáze (někdy se také kombinuje více druhů dohromady), ve kterých lze vyhledávat
mimořádně rychle a klasická SQL, která zajišťuje ACID a plné vyhledávání podle libovolných
parametrů. Tento systém využívají například LinkedIn, Facebook či Twitter.20
Facebook mimo to experimentuje s funkcí Graph search,21
která by měla umožnit analyzovat přátele
daného uživatele, zjistit kolik a kdo z nich má domácí zvíře, jaké mají rádi restaurace nebo kolik mají
sourozenců. Jde tedy o pokročilou analýzu toho, co si může každý udělat sám, avšak systém pro to
nabídne dostatečnou podporu a automatizaci. Námitky proti tomuto způsobu práce s daty jsou etické
– nejde jen o omezování soukromí, ale také se otvírá prostor pro ještě snazší manipulaci s uživateli,
jejich názory či politickým přesvědčením.
CERN je jednou z největších institucí, které disponují vlastní gridovou sítí a mají velký dopad na to,
jakým způsobem se vyvíjejí technologie pro distribuované zpracování dat. Konkrétně gridová síť
19
Pěkným přehledem, i když staršího data, je EDMUNDS, Angela; MORRIS, Anne. The problem of information
overload in business organisations: a review of the literature.
20
Seriál Nerelační databáze. Zdroják
21
Podrobněji KHAN, Arijit, et al. Neighborhood based fast graph search in large networks.
16
CERNu umožňuje zpracovat informace z urychlovačů. Samotné experimenty produkují ohromné
množství dat, které prochází primárním filtrováním, až po něm jsou data posílána do centrálního
úložiště, odkud si je pro zpracování stahují jednotlivé uzly sítě.
Hadoop umožňuje zpracování dat díky rozprostření až na 4000 clasterů.22
Pro ukládání dat se využívá
speciální souborový systém HDFS. Systém dnes využívají v různých modifikacích firmy jako Amazon,
eBay, Facebook, Yahoo či Twitter a IBM. Cílem je budování uzavřených sítí pro určitý druh výsledků.
Jde spíše o platformu na podporu výpočtů pro další služby než o hotové řešení, které lze dále
používat.
22
APACHE. Welcome to Apache™ Hadoop®!
17
Virtualizace
Původní význam termínu virtualizace, pocházející z 60. let 20. a označuje vytváření virtuálních strojů
za pomoci kombinace hardwaru a softwaru. Jednotlivý uživatelé mohli pomocí svých tenkých klientů
přistupovat k výkonu a datům centrálního počítače a měli pocit, jakoby tento jejich stroj obsluhoval
pouze je. S počtem připojených uživatelů se zvyšovala jen odezva systému, ale neklesaly možnosti a
množství nástrojů, které mohl člověk využívat.
Virtualizace je často vnímána jako jeden z nejdůležitějších a největších trendů v ICT v současné době,
ale přesto lze říci, že na její úplné rozšíření se ještě stále čeká a možností pro její intenzivnější využití.
Obecně máme za to, že vrchol ve využívání cloudových aplikací a virtualizace obecně ještě nenastal.
Fundamentální myšlenkou celé virtualizace je vytvořit abstraktní vrstvu mezi hardwarem a
softwarem, který na něm funguje. Umožňuje tak pružně alokovat přesně potřebné výpočetní
prostředky podle aktuálních požadavků daného procesu. Velká část cloudových řešeních stojí na
myšlence, že uživatelé potřebují výpočetní výkon v různém čase. Jedna organizace tak může
disponovat velkými serverovými farmami a poskytovat je za úplatu koncovým uživatelů. Ti mají
požadavky různě rozprostřeny v čase, takž by se vždy měli dostat k takovému výkonu, jaký je aktuálně
potřeba.
Z hlediska vývoje pak může programátor pracovat jen s parametry abstraktní vrstvy, aniž by se musel
příliš zajímat o to, jaký je skutečný hardware pod ní. Jde o obecný přístup, který se v informatice a ICT
používá velice často. Zatímco virtualizaci některých prostředků si člověk ani neuvědomuje (například
paměti v počítači), jiné komponenty je nutné virtualizavat složitěji či speciálními nástroji.
Obecně by mělo platit, že se virtualizované prostředí se může snáze přizpůsobit potřebám uživatelů,
umožní jim abstrahovat se od nepotřebných detailů a věnovat se tomu, co skutečně potřebují.
Z druhé strany je pak vývoj virtualizačních nástrojů důležitý a zajímavý z hlediska tvorby jednotlivých
vrstev a možností, které takové řešení přináší.
18
VirtualBox – nástroj na virtualizaci operarčních systémů.23
Soudobá technická praxe
Samotná virtulizace může působit často zbytečně složitým dojmem, jako by její nasazení nebylo
z hlediska celkové výhodnosti výhodné a praktické. Jejím cílem je především vytvoření jednoduchého
prostředí pro koncového uživatele, což vede právě k vysokým nárokům na celkovou snadnou
použitelnost.
Tvorba virtualizačních nástrojů dnes patří mezi největší a nejdůležitější oblasti vývoje aplikací a
prosazuje se téměř všude. Tvorba abstraktních vrstev je vhodná tam, kde je třeba z heterogenní sítě
vytvořit homogenní, kde k jednomu zdroji musí přistupovat větší množství uživatelů nebo třeba pro
snadné zpřístupnění nástrojů či dat širšímu množství uživatelů.
V následující části se podíváme, pro větší přehlednost, na dvojí dělení virtualizace. Jednak z pohledu
její míry a praktického řešení, ale také z hlediska různých druhů jejich využití, neboť je značný rozdíl
mezi virtualizací serveru a například aplikace. Většina počítačů dnes pracuje (až na drobné odlišnosti)
na principu von Neumanova schématu, které obsahuje procesor, sběrnice či vstupní zařízení.
Virtualizace tak nedělá nic jiného, že místo skutečných fyzických komponent vytváří virtulální.24
Nejvyšší míra virtulizace je spojená s emulací či simulací celého stroje. Tato technika se často používá
například pro vývoj aplikací pro mobilní telefony, kde nemáme na počítači k dispozici patřičný
procesor ani operační systém, ale celé zařízení je kompletně simulováno pomocí speciální aplikace.
Toto řešení se využívá také pro studium běhu operačního systému, neboť jeho pády nijak nebrání
možnosti zkoumat problémy, které k němu vedly.
Plná virtualizace si klade za cíl běh více instancí operačního systému vedle sebe. Každá instance má
přitom přidělený vlastní virtuální stroj s předem předdefinovanými parametry (či si je dynamicky
alokuje). Na jednom počítači s jedním klasickým operačním systémem pak mohou, pomocí nástrojů
jako je VirtualBox, Virtual PC či VMware Workstation a Server, pracovat různé operační systémy.
Dříve byla velice významná částečná virtulizace, která na rozdíl od plné nesimuluje všechny
komponenty, ale pouze jejich část. Jde o přístup, který byl používán například v systémech
IBM M44/44X pro přístup většího množství uživatelů pomocí monitoru k jednomu
výpočetnímu výkonu serveru, který nabízel například jen procesor a paměť.
Velice užitečným konceptem je také paravirtualizace, která se vyznačuje tím, že provádí jen
částečnou abstrakci na úrovni virtuálního počítače, přičemž využívá toho, že některé komponenty
jsou ve virtuálním a skutečném stroji identické. Tím klesají nároky na režii a zvyšuje se možnost
výkonu. Paravirtualizace se nejčastěji týká procesorů a například Intel ji podporuje přímo na úrovni
hardwaru, což je z hlediska vhodného návrhu systému velice důležité. Obecně platí, že čím lépe jsou
využívány speciální vlastnosti procesorů (práce s vlákny, virtualizace, podpora více jader atp.), tím
lepší může být výkon.
Další možností je virtualizace na úrovni operačního systému, kdy jeden počítač se jeví okolí jako celá
skupina. Pracuje přitom na jednom jádru operačního systému, ale jsou nad ním vytvořené jednotlivé
23
VirtualBox. Wikipedia.
24
Podrobněji MATYSKA, Luděk. Virtualizace výpočetního prostředí.
19
instance. Tato metoda se nejčastěji užívá u virtualizace serverů, vyžaduje podporu na úrovni jádra
operačního systému. Mezi příklady konkrétního provedení patří například Linux-VServer, Virtuozzo či
OpenVZ.
Nejvyšší skupinou virtualizačních nástrojů jsou ty, které pracují na úrovni virtualizace pro aplikace.
Jde vlastně o klasický software, který vytváří pro další aplikace abstraktní vrstvu s předem
definovanými vlastnostmi. Zřejmě nejznámějším příkladem je Java Virtual Machine, která je vyvíjena
pro většinu operačních systémů, ale koncový vývojáři v jazyce Java se nemusí vůbec starat o to,
v jakém operačním systému či nad jakým hardwarem bude konkrétně ta jejich provozována.
Pokud jde o příklady využití virtualizace na jednotlivých vrstvách, tak lze zmínit například existenci
virtuální paměti (každý proces vidí svoji část operační paměti bez ohledu na činnost další nebo její
fyzickou podobu), RAID diskové pole (dva a více disků vypadají jako jediný), multitasking (vytváří
dojem paralelně běžících aplikací), DOS Box (emulace operačního systému DOS v Linuxu) či právě
zmíněný Java Virtual Machine.
Druhé významné dělení je podle druhu virtualizace. První skupinou je virtualizace serverů, která je
dnes zřejmě komerčně nejdůležitější a používá se již zcela běžně. Základní myšlenkou je rozdělení
jednoho fyzického serveru na několik virtuálních. Každý virtuální server pak může provozovat vlastní
operační systém a aplikace. Výhodné z hlediska výkonu je, pokud je na jednom serveru provozováno
více strojů s jedním operačním systémem, které by mohly sdílet jediné jádro operačního systému.
Virtualizace serverů slouží například pro oddělení různých dílčích funkcí – jeden virtuální stroj má na
starosti poštu, druhý slouží pro práci se soubory, třetí řídí přístup do sítě, další například obsluhuje
databáze či tisk. Každý přitom může být nastaven individuálně, přesně podle potřeb podniku. Lze tak
snadno kombinovat více rodin operačních systémů, aniž by vznikala potřeba disponovat větším
množstvím samostatných zařízeních.
Druhou oblastí je virtualizace aplikací, které jsou poskytovány dynamicky, pomocí SMB si může
systém objednat jen potřebné aplikace dle potřeb jednotlivých uživatelů. Moderní cloudové a
virtualizační technologie se v této oblasti nesoustředí na budování infrastrukutury, ale především na
tvorbu komplexních systémů s vysokou přidanou hodnotou. Ta spočívá nejen ve speciálních
repozitářích aplikací, které mají uživatelé k dispozici, ale také v prostupnosti skrze platformy a větší
možnosti v oblasti spolupráce mezi uživateli. Podobná řešení jsou také užitečná z hlediska snadného
transferu dat.
Poslední varianta, která je stále spíše v plenkách, ale postupně se rozvíjí, je virtualizace celých
desktopů. Místo toho, aby většinu výpočetního výkonu obstarávaly koncové stanice, je tato úloha
přenesena na server, který také spravuje data a aplikace. Uživatelům tak postačí se přihlásit do
firemní sítě a mají k dispozici veškeré potřebné vybavení i infrastrukturu. Jde o typické řešení pro
BYOD, kde odpadají problémy se specifickými zařízeními a jejich vlastnostmi. Současně se umožňuje
koncovým uživatelům, aby si volili pracovní nástroj nikoli s ohledem na firemní kulturu a
infrastrukturu, ale pouze na cenu a to, jak jim osobně vyhovuje.
Zajímavou oblastí je také otázka, jak zajistit přístup k datům aplikacím i dalším službám sítě ve chvíli,
kdy není k dispozici připojení. Možností řešení je celá řada. V případě, že jde o nástroje pracující
v HTML5, tak jsou k dispozici funkce pro pozdější offline zpracování. Často se využívá ukládání dat a
20
aktuálně používaných nástrojů do mezipěměti. Obecně lze rozlišovat mezi konceptem
streamovaného přenosu dat a sdílenými desktopy, kde je zajištění synchronizace již relativně
jednoduchou záležitostí a odpojení od sítě uživatele nijak neomezuje.25
V současnosti lze sledovat zajímavý trend, který směřuje k maximálně komplexním řešením, která by
umožňovala nabízet maximální úroveň virtualizace na všech stupních vývoje a dokonalé škálování.
Poptávka po prosté virtualizaci serverů bude zřejmě klesat na úkor virtualizace desktopů či
komplexních služeb. Jedním z velkých témat je pak práce a podpora mobilních zařízení, ať již formou
podpory výkonu vzdáleným zpracováním nebo třeba právě virtualizací aplikací či desktopu.
Je třeba pamatovat na to, že cílem všech virtualizačních metod a technik je především spokojenost a
efektivita koncového uživatele, kterého příliš nezajímá, zda potřebuje plnou či paravirtualizaci, ale
požaduje přístup k vlastním datům, potřebným aplikacím i výpočetnímu výkonu co možná nejrychleji
a nejpohodlněji. Jakkoli složité a robustní řešení musí být především z hlediska uživatelského
komfortu co možná nejpříjemnější a nejjednodušší.
Extrémním způsobem virtualizace je cloud, který přenáší výpočetní prostředí, data i aplikace zcela
mimo organizaci, což je z hlediska technické náročnosti nejsnazší cesta, ovšem je třeba pamatovat na
řadu rizik bezpečnostního i konfiguračního charakteru.
Silné stránky a možnosti
Hlavní výhodou virtualizace je zřejmě její ekonomický rozměr. Mít jeden server, který je virtualizován,
přináší velké finanční úspory jak malým či středním firmám, tak také velkým korporacím. Jde o důvod,
pro který se většinou virtualizace používá. Díky této technice lze snížit jak nároky na páteřní
infrastrukturu podniku, tak také cenu pracovních stanic, které mohou část svého výkonu delegovat
na příslušné servery.
Další oblastí úspor jsou snížené nároky na správu koncových zařízení – aplikace lze snadno
virtualizovat a nabídnout je tak právě těm uživatelům, kteří je aktuálně potřebují či chtějí využívat. To
umožňuje efektivní nasazení plovoucích licencí, které omezují počet souběžně pracujících aplikací
jednoho druhu v jeden okamžik. Místo nutnosti kupovat licence na všechny počítače nebo složitého
řízení licenčních politik lze zvolit právě toto řešení, kdy server triviálně v každý okamžik ví, kolik a
jakých aplikací ve firmě běží. Z dlouhodobých statistik pak lze dobře nastavit celkovou licenční
politiku, což opět vede k úsporám.
Jestliže je ve firmách užíváno větší množství různých počítačů či dokonce politika BYOD, může
virtualizace efektivně pomoci se řízením a administrací celé takto koncipované sítě a standardizovat
tak rozhraní a uživatelské prostředí pro všechny uživatele.
Virtualizace umožňuje používat aplikace napříč platformami, což znamená, že koncoví uživatelé
nemusí být v principu omezeni tím, zda chtějí pracovat s aplikací vytvořenou v HTML5, Pythonu pro
Linux nebo C++ pro Windows. Teoreticky lze setřít rozdíly mezi tablety a stolními počítači a delegovat
část výpočetního výkonu na server, což má za následek větší pracovní efektivitu zaměstnanců. Každý
z nich může používat oblíbený operační systém, ale přitom mít přístup ke všem firemním službám.
25
LU, Wei Jun; CUI, Bo Long; HU, Su Rong. Visualization Engineering Simulation Based on HTML5 and Cloud
Computing.
21
Nezanedbatelným prvkem virtualizace je také úspora elektrické energie – díky možnosti používat
méně výkonné počítače a menší množství serverů dochází k nižší spotřebě elektrické energie, což má
ekonomické i ekologické konsekvence. Ukazuje se, že pro řadu činností by dostačovala starší zařízení,
která musí být v klasických sítích již nahrazena novými.
Díky virtualizaci lze efektivně škálovat výkon, ať již vlastních nebo pronajatých serverů. Například
server pro stránky, které prodávají lístky na koncerty, bude mít jistě značně rozličnou zátěž
v okamžiku, kdy je otevřen prodej nových lístků, než dva nebo tři dny poté. Díky možnosti dynamické
alokace zdrojů tak není nutné mít k dispozici silně předimenzovanou infrastrukturu.
Virtualizaovné systémy, ať již jde o servery či aplikace jsou snadno zálohovatelné a jejich obnovení je
mimořádně rychlé. Nahradit jeden virtuální stroj jeho identickou kopií v případě pádu, útoku či jiných
problémů je otázkou několika málo vteřin či minut, nikoli dlouhých hodin s novou instalací a
konfigurací. Jde tak o významný prvek v bezpečnostní politice organizace. Tyto zálohy mohou být
také snadno uloženy do geoclusterů, které jsou rozmístěny na různých místech na Zemi, což zvyšuje
odolnost systému proti přírodním katastrofám, výpadku proudu či válečným konfliktům.
Další výhodou může být snadný přechod z testovací verze prostředí na plnou, který je možné
realizovat jediným příkazem záměny dvou virtuálních strojů. V běžném provozu je pro testování
nutné mít buď identický server, který je pak přepojen nebo hledat cesty složitějších a méně
pohodlných řešení vyžadujících delší odstaváky.
V neposlední řadě pak virtualizace umožňuje podstatně snazší vývoj aplikací. Programátor musí
počítat jen s prostředím, které je emulováno a tím pádem také garantováno virtualizačními nástroji,
aniž by musel uvažovat specifika hardwaru či operačního systému, pod kterým pracuje. Z vývojářova
operačního systému lze testovat software pro jiné platformy, což může být pro vývoj buď zcela
nezbytné (například v případě mobilních zařízení), nebo to zvyšovat efektivitu a komfort práce, což
opět vede k úsporám.
Pokud je systém virtualizace propojený s internetem, umožňuje přístup k datům a aplikacím prakticky
odkudkoli a kdykoli, což je mimořádně důležitá vlastnost z hlediska podpory virtuálních týmů či
vzdálené spolupráce. Nemělo by se zapomínat ani na dva významné trendy, které lze v této oblasti
identifikovat. Jednak jde o podporu mobilních zařízení a jejich výkonu na straně serveru, a za druhé
budování sítí s extrémní odolností vůči výpadkům.
Slabé stránky a možné problémy
V oblasti slabých stránek a nevýhod virtualizace je dobré situaci rozdělit na dvě velké skupiny. První
se týká problémů virtualizace jako takové, druhá pak její extrémní formy, tedy cloudovým
technologiím.
Prvním problémem, který souvisí s virtualizací, je přechod o klasických serverů k těm
virtuálním. To se neobejde bez relativně velké práce s hledáním vhodné platformy, tvorbou
virtuálních strojů (což je činnost srovnatelná s instalací fyzického serveru) a přenosu obsahu.
Poslední položku lze umenšit pomocí nástrojů P2V - physical to virtual. Počáteční nároky,
možné odstávky a ladění jsou tak nezbytnou investicí, se kterou je třeba počítat.
Druhým problémem, který souvisí s klasickou virtualizací, je pokles výkonu. Ač virtualizace paradoxně
slouží k tomu, aby uspořila prostředky a výkon, samotné virtualizační mechanismy mají netriviální
22
režii jak procesoru (situace je lepší na nových procesorech, které ji prostřednictvím speciálních funkcí
podporují), tak také a paměti RAM. K velkým problémům může docházet také na úrovni disků, pakliže
jsou použity klasické disky a jeden slouží více virtuálním strojům, může docházet k významnému
zpomalení celého systému.
Problémem je často také komplikovanější správa licencí a to hned v několika rovinách. Předně je
třeba říci, že se často licence pro virtuální stroje podléhají jiným pravidlům než pro fyzická zařízení.
Jestliže virtualizace softwaru umožňuje snížit náklady co do množství licencí, často vede k velké režii a
nákladům spojených se specifiky virtualizace. Dalším problémem může být zálohování a testování,
kdy je třeba (kvůli zpravidla nižší ceně) pracovat s dalším druhem licencí, jestliže se má organisace
chovat legálně.
Specifickou novou třídu problémů může přinášet také nasazení cloudových technologií, proti kterým
se staví například Richard Stallman: „Je to [cloud] stejně špatné, jako používání proprietárních
programů. Výpočty dělejte na vlastním počítači se svou kopií programu, která respektuje zásady
svobodného softwaru. Jestliže používáme uzavřený program nebo webový server patřící někomu
jinému, nemáte žádnou obranu, stáváme se hračkou v rukách toho, kdo vyvinul ten software.“26
Tato námitka je relativně častá a oprávněná. Postavit firemní infrastrukturu na službách, které není
možné přizpůsobit, u nichž nikdo nezná jejich životnost a to, jakým způsobem se budou měnit, je na
jedné straně možná pohodlné, ale současně mimořádně riskantní.
Neméně diskutovaným problémem je bezpečnost.27
Nejde přitom jen o sledování a čtení obsahu
tajnými službami, ale především o možnost úniku dat ve prospěch konkurence. Jestliže jsou užívány
například virtuální disky pro ukládání dat bez užití šifrování, je nemalá možnost jejich zcizení při útoku
na službu poskytující cloudové technologie. Uživatel nemá v podstatě žádnou možnost, jak ovlivnit či
kontrolovat míru zabezpečení dat.
Cloudové technologie jsou také silně závislé na internetu. Jestliže existují mechanismy, které jsou
schopny si více méně poradit s výpadky, celková funkcionalita systému není bez internetu zajištěna a
v případě klasických cloudových služeb to může znamenat velké problémy.
Cloud může také snadno posloužit jako nástroj pro nelegální činnost či kyber útoky. Příkladem může
být útok na společnost Sony, při kterém byla ukradena data téměř o sto miliónech uživatelích.28
Snadno lze tyto technologie použít pro DDoS útok, aniž by bylo nutné budovat botnet síť.
V neposlední řadě je zde problém s migrací, která je tím náročnější, čím více je cloud používán.
Zatímco přechod ze SaaS je téměř nemožný, v případě IaaS je situace příznivější, ale i tak případný
přechod na jinou platformu přináší značné finanční náklady. To vede k silné závislosti organisace na
jedné společnosti a produktu, který ji v budoucnu může působit velké technologické i finanční
problémy.
26
JOHNSON, Bobie. Cloud computing is a trap, warns GNU founder Richard Stallman.
27
PEARCE, Michael; ZEADALLY, Sherali; HUNT, Ray. Virtualization: Issues, security threats, and solutions.
28
JASON, Mick. dAnonymous Engages in Sony DDoS Attacks Over GeoHot PS3 Lawsuitos.
23
Aktuální projekty
Microsoft Hyper-V je hypervizorově stavěný serverový systém, což znamená, že běží v jednom
operačním systému (Windows Server 2008, Windows 8), který umožňuje realizaci dalších virtuálních
strojů s vlastními operačními systémy. Takto podporovány jsou všechny verze Windows a vybrané
Linuxové distribuce.29
VMware Infrastructure30
je komplexní balík řešení založený na VMware ESX Server spolu s dalšími
doplňky a službami. Pro běh je určená speciální linuxová distribuce a může fungovat jen na
podporovaných počítačích. Umožňuje delegování zdrojů, správu virtuálních serverů, má vlastní
souborový systém nebo pokročilý monitoring. Jde o jedno z nejrobustnějších virtualizačních řešení.
Pro méně náročné požadavky je určený zdarma dostupný VMware Server.
VirtualBox je bezplatný nástroj, který umožňuje na jednom počítači provozovat více operačních
systémů současně. Podporuje tvorbu screeshotů, sdílenou schránku mezi instancemi, obsahuje
Seamless mode, který umí virtualizovat dílčí aplikace, aniž by byl vidět zbytek systému (například
Word v Linuxu) a řadu dalších funkcí. Oficiálně jsou podporovány Windows, Linux i OS X ve většině
rozšířených verzí, pro virtualizaci k nim pak přibývají také Solaris, OpenBSD či MS Dos a řada dalších.31
Java Virtual Machine umožňuje běh aplikací napsaných v jazyce Java opět za pomoci
virtualizace. Takové řešení umožňuje snadný multiplatformní vývoj a velkou bezpečnost. Na
druhé straně je zde nezanedbatelná režie spojená s iniciací JVM, zpracování bytecode atp.
Zajímavostí je, že JVM dnes podporuje také jiné jazyky jako je Python, Ruby a řada dalších.
Některé operační systémy mají snahu jej mít jako komponentu či modul ve svém jádře.
Wine slouží pro spouštění aplikací určených pro Windows v Linuxu s tím, že místo úlohy virtuálního
stroje či emulátoru nabízí pouze vhodně poskládaný soubor API. DosBox pak slouží pro emulaci MS
DOS v Linuxu a ve Windows. Aplikací, které umožňují virtualizaci na nejrůznějších úrovních, jsou
stovky, ale lze říci, že největší potenciál mají aktuálně ty, které usilují o robustní, funkční a komplexní
řešení pro celou organizaci.
29
DODDAVULA, Shyam Kumar; AGRAWAL, Ira; SAXENA, Vikas. Cloud Computing Solution Patterns:
Infrastructural Solutions.
30
KEITH JR, Robert O. Virtual recovery server.
31
ORACLE. VirtualBox.
24
Člověk a počítač
Srovnávání člověka a počítače patří nepochybně mezi činnosti, které zaměstnávají filosofy, sociology,
ale také informatiky. Relativně nově se rozvíjející oblast sociální informatiky si přirozeně klade za cíl
pomoci pochopit, jak lze lidské chování, myšlení, emoce či řeč zpracovávat, jaké jsou v nich společné
znaky a jak by bylo možné tyto procesy algoritmizovat.
Historicky vznikají dvě odvětví, která k sobě mají v tomto ohledu (ale také z pohledu technického
provedení) velice blízko – zpracování přirozeného jazyka (od převodu textu na zvuk a opačně, až po
pochopení významu) a umělá inteligence. Relativně novou je pak oblast zpracování emocí, které se
ukazují jako zcela nezbytné pro pochopení člověka a jeho potřeb.
Sémantické technologie hrají již dnes v nejrůznějších aplikacích (především mobilních) zásadní roli –
od hlasového asistenta Siri v Apple, až po diktování textu v Androidu. Také proto má smysl o všech
těchto technologiích uvažovat v jednom logicky propojenému celku. Naopak se přímo nebudeme
věnovat problematice umělé inteligence, která stojí v pozadí všech těchto aktivit, ještě se s některými
jejími fragmenty setkáme v kapitole věnované síťovým technologiím.
Z hlediska aplikačního by pak na tuto oblast přirozeně navazoval uživatelský design, případně otázka
HCI (Human–computer interaction). Jde o část informatiky, která je mimořádně těsně spojená
s vědami sociálními – ať již jde o sociologii, jazykovědu nebo psychologii. Jejich dobrá znalost či
orientace v nich jsou pro vývoj úspěšných aplikací zcela nezbytným předpokladem.
25
Sémantické technologie: web a desktop
Sémantické technologie, bez ohledu na to, zda jsou implementovány na webu či na desktopu, se
snaží změnit skutečnost, že počítač pracuje s daty, kterým rozumí jen ve velice omezené míře. Jako
první přišel s touto myšlenkou zakladatel klasického webu Tim Berners-Lee v roce 2001, který
upozornil na skutečnost, že web je stále rychleji rostoucí změtí stránek, ve kterých se lze jen obtížně
vyznat.32
V současné době lze s dobrou přesností říci, že web roste exponenciálně.
Sémantické technologie si tak obecně kladou za cíl především strojové zjištění obsahu dokumentu a
jeho další zpracování a to v co možná nejobecnější míře. Díky tomu by bylo možné mnohem lépe řešit
problémy s relevancí výsledků ve vyhledávání, neboť by vyhledávací stroje znaly skutečné informace,
které by bylo možné analyzovat a srovnávat.
Sémantický web, který je z obou konceptů podstatně populárnější a známější, přitom nemá zcela
jednoznačnou definici. Nejčastěji se můžeme setkat s přístupem ideovým, tedy že jde o web znalostí
či informací. Druhou možnou definicí, která se snaží odpovědět také na otázku jak toho docílit, může
být, že „sémantický web je rozšířením současného webu, v němž informace mají přidělený dobře
definovaný význam, který počítačům a lidem umožňuje lépe spolupracovat. Sémantický web
představuje reprezentaci dat na webu. Je založen na technologii Resource Description Framework
(RDF), která integruje širokou škálu aplikací využívajících syntaktický zápis v XML a identifikátory URI
pro pojmenovávání.“33
V této definici je možné zvýraznit několik skutečností – především je sémantický web rozšířením
konceptu toho stávajícího. Představy, že půjde o budování webu zcela nového, se nikdy
nezrealizovaly. Dále je zde důležitý prvek užití RDF jazyka, který umožňuje popisovat data a vztahy
mezi nimi, takovým způsobem, aby byla pro stroje „pochopitelná“ jako informace.
Sémantický desktop se pak snaží o činnost velice podobnou, jen na úrovni desktopu (se všemi jeho
specifiky oproti webu), s tím, že i prostředky, jak toho dosáhnout jsou často analogické. Mimo
samotné pochopení významu dat ale přidává také některé další zajímavé funkce, jako je prostupnost
dat mezi aplikacemi či jejich sdílení s dalšími uživateli.
32
BERNERS-LEE, Tim, et al. The semantic web.
33
MATULÍK, Petr, PITNER, Tomáš. Sémantický web a jeho technologie.
26
Jednotlivé vrstvy v případě sémantického webu.34
Soudobá technická praxe
Tim Berners-Lee na zmíněné přednášce, kde představil nutnost existence sémantického webu, uvádí
příklad, kdy sestra volá bratrovi, že jejich matka potřebuje fyzioterapeuta. Telefon mu začne zvonit až
poté, co skončí jeho oblíbená píseň a CD přehrávač se automaticky zastaví. Po domluvě je poslán
pokyn s parametry centrálnímu registru odborníků s požadavkem na hodnocení pracovníka a jeho
vzdálenost od matky. Vše je automaticky vyhodnoceno a zpracováno. O matku je tak postaráno
kvalitně a během několika málo sekund.
Tento příklad pěkně identifikuje to, o co v sémantickém webu jde – automatickou analýzu a práci s
informacemi. Technicky je dnes vše založeno na Resource Description Framework (RDF), která
obsahuje celou řadu protokolů, předpisů a nástrojů, které využívají syntaktický zápis v XML a
identifikátory URI pro pojmenovávání objektů a adres.35
Sémantický web se tak skládá ze dvou základních částí. Na jedné straně stojí data, která jsou zapsaná
pomocí zmíněného RDF (respektive jeho variant a odvozenin), a pak zde stojí ještě softwarový agent
(označení programu s vlastním rozhodovacím systémem či umělou inteligencí), který umí s takto
zapsanými daty pracovat.
34
Semantic web. Wikipedia.
35
Viz například MCILRAITH, Sheila A.; SON, Tran Cao; ZENG, Honglei. Semantic web services. nebo ANKOLEKAR,
Anupriya, et al. DAML-S: Web service description for the semantic web.
27
Hlavní myšlenkou RDF je identifikovat v textu jednotlivé objekty a popsat vztahy mezi nimi. V oblasti
sémantického webu se proto užívá triáda subjekt – predikát – objekt. To na první pohled vypadá
relativně snadno, ale je třeba zdůraznit, že například věty „Tim Berners-Lee představil sémantický
web“ a „Sémantický web představil Tim Berners-Lee“ mají sice stejnou pragmatickou výpověď, ale
z hlediska RDF mají zaměněný subjekt s objektem. U složitějších vět je pak situace podstatně
obtížnější.
Z hlediska softwarového zpracování se pak nejčastěji užívá grafových algoritmů – vlastnosti
jsou jeho hrany, které jsou orientovány od podmětu k předmětu, které tvoří jeho vrcholy.
RDF je klasickým příkladem uspořádané trojce, což umožňuje nasazení robustních a známých
matematických řešení na jeho zpracování.
Z hlediska vzhledu dokumentu je RDF transparentní, takže není na první pohled vidět, zda text tyto
metainformace obsahuje či nikoli. Z této skutečnosti plyne, že jde o konzervativní rozšíření klasického
webového konceptu. Dnešní hotová webového řešení ale ukazují, že takový postup je zatím poněkud
obtížně uskutečnitelný a vznikají spíše izolované služby a řešení, která pracují s uzavřenou vlastní
proprietární databází, nikoli s otevřeným webem.
Jistým mezistupněm mohou být mikroformáty, které jsou jednoduché na implementaci a jsou
relativně hojně rozšířené. Jedná se o způsob zápisu strojově čitelných informací za využití stávající
XHTML struktury, a to především v partikulárních oblastech. hCalendar například umožňuje z webové
stránky vyexportovat data do kalendáře uživatele, pomocí XFN lze uvádět vztahy mezi osobami
(avatary) v sociálních sítích, což umožňuje například automaticky sdělit, kdo je otcem či bratrem toho
kterého uživatele. Z dalších uveďme například hAtom či hCard.36
Na myšlenku sémantického webu navazuje sémantický desktop, což je mimořádně komplexní a
ambiciózní projekt, který se snaží převod dat na informace zajistit na úrovni desktopu. Nepočítá ale
s RDF popisem dokumentů, které by musel provádět uživatel, ale sází na možnosti, které nabízejí
jednotlivé aplikace, které různá data zpravují, mataformáty, které jsou vytvářené automaticky nebo
na uživatelovo občasné doplnění nějakého popisu či tagu v přirozeném jazyce.
Sémantický desktop užívá poněkud jiných ontologií pro popis vztahů mezi objekty a to čtyř prvkový:37
Jedinec je základním stavebním objektem, který může být konkrétní živý i
neživý objekt (člověk, kámen, stůl, graf) nebo také zcela abstraktní objekt (číslo, pojem,
událost, axiom,..).
Třída je množinou jedinců stejného druhu. Je možné budovat podtřídy. Třída může obsahovat
současně podtřídy i jednotlivce.
Atribut popisuje určitou vlastnost, charakteristiku či parametr jedince. Každý atribut určitého
jedince obsahuje přinejmenším název a hodnotu. Pomocí atributů tedy definuje vlastnosti
jednotlivých jedinců.
Vazba je jednosměrné nebo obousměrné propojení dvou jedinců.
Toto rozdělení lze demonstrovat na jednoduchém příkladu. Pokud chceme vytvořit ontologii
počítače, pak vytvoříme jedince (počítač), kterého zařadíme do třídy (elektronika) a přiřadíme mu
36
KHARE, Rohit; ÇELIK, Tantek. Microformats: a pragmatic path to the semantic web.
37
ČERNÝ, Michal. Stručný úvod do konceptu sémantického desktopu.
28
atributy (HDD = 320 GB; RAM = 2 GB; vyrobce = IBM, typ = desktop, Usb3 = no) a samozřejmě
přidáme vazby na další objekty reálného světa (například že je to můj pracovní nástroj nebo že stojí
na stole).38
K tomu, aby bylo možné s ontologiemi na počítači reálně pracovat, je třeba, abychom měli jednak
formální jazyk, kterým je budeme zapisovat (což je u Nepomuku39
RDF, respektive RDFS, OWL a NRL)
a pak také nastavené atributy a třídy, které budeme chtít používat. To nám umožní s daty provádět
rozumné operace. Konkrétně u Nepomuku je zatím zavedeno pět ontologických skupin (situace je ve
skutečnosti o něco složitější a například NIE představuje celou ontologickou rodinu):
NIE slouží pro modelování informací, které jsou běžnou součástí počítačových souborů. Jde
například o metadata o souborech, textových dokumentech a e-mailech, kontaktech, EXIF či
ID3.Jeho součástí je také NFO, které slouží pro popis vztahů mezi soubory a zachycení
informací, které jsou v nich obsaženy.
NRL je určený na práci s pojmenovanými grafy.
NAO slouží především pro popis grafů, které jsou vytvořené pomocí NRL.
PIMO je zaměřen především na integraci údajů o osobách (ale i jiných reálných objektech).
TMO slouží pro modelování osobních úkolů, všeobecně známých jako to-do list.
Ontologií avšak může být více a neustále se diskutuje o zavádění dalších. Zde je možné vidět dva
základní parametry toho, kolik ontologií je pro popis optimální. Na jedné straně je možné říci, že čím
jich bude více, tím jemněji, jednodušeji a přesněji můžeme popisovat jednotlivé objekty. Na druhé
straně nám ale roste náročnost na zpracování takových dat a je obtížnější mezi nimi budovat nějaké
vazby.
Obecně se pak koncept sémantického desktopu koncentruje na pět základních oblastí výzkumu. První
oblastí je vyhledávání, což je prvek totožný s tím, který je znám ze sémantického webu. Cílem je
prohledávání informací a nikoli pouze data. Prezentace dobrých výsledků vyhledávání a spojení se
zpracováním přirozeného jazyka, se jeví jako mimořádně atraktivní.
Druhá oblast se týká integrace jednotlivých aplikací, které v rámci sémantického desktopu vzájemně
spolupracují na výměně snadno pochopitelných dat ve formě patřičných ontologií. Jednou z klíčových
vlastností má být také schopnost odvozovat z informací nové závěry či dolování dat. Sémantický
desktop nemusí prohledávat jen pevný či síťový disk, ale může získávat data z firemních databází
znalostí, spolupracovat s webovými řešeními atp. Sociální vrstva má pak zajistit snadnou výměnu
informací mezi jednotlivými počítači, což je důležitý prvek pro jejich nasazení do firemní
infrastruktury.
Sémantický web ani desktop nepředstavují izolovanou technologii, která sama o sobě povede
k lepšímu vyhledávání, ale do velké míry v sobě integrují celou řadu technologií z jiných oblastí
informatiky. Zmínit lze především zpracování přirozeného jazyka, který by měl sloužit pro
oboustrannou komunikaci – jak mezi člověk a počítačem, tak také počítačovou odezvou směrem
k uživateli.
38
SemanticDesktop.org: OSCAF/NEPOMUK Ontologies.
39
Nepomuku, což je dnes nejrozšířenější software na provoz sémantického desktopu se podrobně věnujeme
v závěru kapitoly.
29
Další oblastí, která se nabízí, je zpracování obrazových či zvukových dat, ve kterých je třeba také
vyhledávat a která se zatím do klasických schémat ontologií příliš neprosazují. Jednou z možných cest
je jejich převod do určité textové representace, která bude dále zpracovávána. Blízká je také téma big
data, protože z hlediska sémantického webu a serverů i desktopu a běžných počítačů či tabletů a
telefonů jde o enormní množství dat s nepříliš jasnou strukturou, které je třeba pro dobrou funkci
technologie zpracovat. Mimořádně důležitý bude také rozvoj umělé inteligence, která stojí v pozadí
všech vyhodnocujících procesů a dolování dat.
Podobných průsečíků by bylo možné nalézt desítky. Sémantické technologie, které si kladou za cíl
převod dat na informace a jejich další zpracování, především pak vyhledávání v nich, představují
jeden z nejkomplexnějších myslitelných témat současného ICT. To je na jednu stranu mimořádně
náročné, ale současně tato skutečnost otvírá dveře pro velké množství dílčích aktivit, které bude
možné do celé struktury integrovat.
Silné stránky a možnosti
Sémantické technologie jsou obecně jedním z nejrychleji se rozvíjejících se oborů informatiky
především proto, že se snaží vyřešit pochopení obsahu počítačem. Velká část futuristických či sci-fi
konceptů, které počítají s tím, že budou stroje samostatně myslet, musí vyřešit zmíněný problém
převodu dat na informace, tedy na něco, čemu lze rozumět, má to kontext a lze z toho odvodit něco
dalšího. Podobné postupy tak stojí v popředí toho, čemu laická veřejnost říká umělá inteligence, i
když informatik ví, že jde jen o její část.
Motivace sémantického webu, tak jak ji naznačil Tim Berners-Lee, je zřejmá – vytvořit takový web,
který bude agregovat informace a bude schopen dávat smysluplné odpovědi na otázky, nikoli jen
fulltextově prohledávat dokumenty a na základě různých SEO politik řadit výsledky.40
Praktickou
funkčnost si lze snadno představit na příkladu otázky, kdy naposledy studoval Petr Dvořák na UP.
Systém musí pochopit, co je objektem, co předmětem a vztahem a z RDF struktury v grafu získat
patřičné informace.
Koncept lze ale rozvíjet dále a to podáváním dalších souvisejících informací – můžeme se dozvědět,
co hledaná osoba publikuje, zda vyučuje na UP či někde jinde nebo si nechat zobrazit odkaz na výpis
s registru dlužníků a její osobní stránky. Sémantický web by tak měl být schopen pomocí těchto
přidaných informací nejen odpovídat na jednoduché otázky, ale také vytvářet takové odpovědi, které
umožní uživateli pochopit kontext a širší souvislosti.41
Sémantický web, pokud se podaří jej dobře implementovat, bude umět vyřešit hned několik
významných vyhledávacích problémů. Tím prvním je informační smog, tedy stránky, které se
dostávají do popředí vyhledávání jen proto, že mají dobré SEO, ale jejich informační hodnota je
mizivá nebo reklamně orientované texty s vysokým výskytem daných slov. V ideálním případě má
uživatel pro většinu svého informačního chování k dispozici reklamou nezatížený obsah informací a
souvislostí, které ji obklopují. Zajímavé jsou přitom nejrůznější grafické koncepty, které slouží pro
representaci těchto dat v patřičném kontextu a jejich snadné vyhledávání.
Dalším významným problémem, který by bylo možné vyřešit je nízká gramotnost některých osob,
které mají problémy s vyhledáváním. Spolupráce přirozeného jazyka a sémantického webu by měla
40
BERNERS-LEE, Tim. Semantic web road map.
41
ČERNÝ, Michal. Sémantický web – jak dál?.
30
vést k tomu, že člověk téměř nepozná rozdíl mezi otázkou, která jej zajímá a tou, kterou dává
vyhledávači k zodpovězení.
Sémantický web v tomto kontextu může znamenat nejen zásadní změny v informačním chování, ale
také v tom, jakým způsobem bude vypadat školství. Zatímco dnes je zřejmé, že by měli učitelé klást
především takové otázky, které si studenti „nevygooglí“, budoucnost vzdělávání může být díky
schopnosti systémů odpovídat i na relativně náročné otázky velice zajímavá.42
Sémantický desktop má cíle postavené částečně někde jinde. Základní ideou je kooperace aplikací
mezi sebou – v ideálním případě budou data z prohlížeče webu, správců souborů, obrázků,
poštovních klientů nebo třeba fakturačního systému a databází spolu dokonale propustná – pokud
začneme psát e-mail Petru Dvořákovi, měli bychom být systémem zpraveni o tom, že nám například
nezaplatil poslední tři faktury, co bylo obsahem poslední schůzky a jaký byl smysl nedávné
korespondence s ním atp. V současné době se ontologie různého druhu používají spíše v menším
množství aplikací, ale lze v této oblasti očekávat progresivní vývoj.
Vývoj v oblasti sémantického desktopu je dnes velice zajímavý nejen ve vývoji ontologií, vyhledávání
či prostupnosti dat, ale také z hlediska jejich sdílení. Všechny informace jsou typicky řazeny do jedné
databáze, takže není obtížné zajistit její sdílení (nebo její části) mezi více uživateli. Díky tomu tak
může mít například každý zaměstnanec dokonalý přehled o tom, jak v dané věci postupoval jeho
kolega a snadno ho zastoupí nebo na něj naváže.43
Díky takovému konceptu lze také snadno zajistit prostupnost mezi jednotlivými zařízeními, která
mohou mít kopii jednotné databáze v cloudu, a jen ji aktualizovat. Ať již přistoupí ke svému desktopu
kdekoli, má k dispozici stále stejný bank informací a prostředí, které je schopné s ním patřičným
způsobem pracovat.
Slabé stránky a možné problémy
Sémantické technologie, i přes svůj nesporný význam a potenciál, mají celou řadu problémů, se
kterými není příliš snadné se vypořádat. Klasický model sémantického webu stojí na myšlence, že
uživatelé sami budou vyplňovat RDF popisky dat, které zveřejňují. Dnes nalezneme celou řadu (i
odborných) textů, které stále nevyplňují nepovinné značky klasického HTML s parametry jako je
"description" či "author". To jednak znesnadňuje citaci, ale také snižuje důvěryhodnost i možnost
snadné orientace. Existuje však relativně málo lidí, kteří by tyto informace použili, proto je není
efektivní vyplňovat.44
RDF je tak pro většinu internetové populace technologií, která nemá potřebnou rentabilitu, lze tak
říci, že se nikdy nedostala přes práh užitečnosti (K čemu by byl telefon, kdyby ho mělo deset lidí ve
městě?). Situaci navíc komplikuje fakt, že neexistuje žádný jednoznačný způsob, jak správně RDF
značky zapisovat tak, aby jim všechny (nebo standardní) vyhledávače sémantického webu
porozuměly.
Dalším důležitým argumentem proti sémantickému webu může být skutečnost, že XML struktura
není to, co uživatel čte. Obvykle o ni nijak nestojí, ale stejně by ji musel přenášet při načítání stránky.
42
SLÍŽEK, David a KOUBSKÝ, Petr. Petr Mára: Dnešní učitel musí žákům klást otázky, které nejde vygooglovat.
43
DECKER, Stefan; FRANK, Martin R. The Networked Semantic Desktop.
44
ČERNÝ, Michal. Sémantický web – jak dál?.
31
Roste objem dat, což může vadit například uživatelům s připojením pomocí mobilních telefonů, ale i
dalším. Právě to, že je XML příliš náročný na přenos (nemluvíme o jednom či dvou řádcích, ale
například o několika desítkách) je dalším důležitým parametrem, hrajícím v neprospěch celého
konceptu. Na tomto místě je třeba zdůraznit, že řada vývojářů raději poruší validitu kódu, aby zajistila
rychlejší načítání svých stránek, což jen podtrhuje tlak na hledání alternativního řešení.
Chybí motivace k implementaci, neboť vyhledávače sémantického webu jsou zcela minoritní a
investice do tvorby takových stránek je tedy ekonomicky neefektivní. Absence stránek bez kvalitních
RDF popisků přitom implikuje ekonomickou nerentabilitu ve vývoji vyhledávacích strojů.
Dnešní situace je taková, že RDF představuje sice robustní, ale velice málo užívaný koncept a
sémantické vyhledávání se snaží jednotlivé stroje obejít jiným způsobem. Například Google umí
vytáhnout vybrané kategorie z Wikipedie a nabídnout je jako součást výsledků vyhledávání v rámci
svého diagramu znalostí (například pod heslem Václav Havel se zobrazí nejen seznam stránek, ale
také krátký medailonek se základními informacemi a fotografií). Facebook nabízí prohledávání
sociálních vazeb a dolování dat z nich na základě kategorií, které vyplňují uživatelé na svém profilu
atp. Lze tak uzavřít, že klasická představa sémantického webu stojícího na RDF má značné trhliny a
není pravděpodobné, že by byl v tomto rámci globálně realizován.
Sémantické technologie s sebou přinášejí na jedné straně obrovský potenciál, ale stejně tak rizika.
Pokud se začne uživatel spoléhat na výsledky, které jsou mu předkládány ve formě souboru faktů,
případně doplněných o kontext, může se objevit řada bezpečnostních i etických problémů.45
Tím
prvním je problémem je validita výsledků – jde o jedno z témat, které by mělo být řešeno, ale zřejmě
dopadne částečně jako v případě klasického webu. Mírně pozměněná realita může být v takovém
případě od pravdy velice špatně poznatelná. Takovou manipulaci mohou provádět v zásadě všichni –
od firem dělajících si reklamu, přes nedemokratické režimy a politické strany, až po osoby, které se
(přes dobrou vůli) mýlí.
Také bezpečnostní rizika v případě sémantického desktopu či různých znalostně orientovaných
systémů jsou podstatně vyšší. Lze říci, že řada izolovaných dat, může být v případě zcizení
nepříjemná, ale informace mají díky svému vysvětlení a kontextu podstatně vyšší hodnotu a možnost
jejich zneužití je netriviální.
Není také možné snadno nalézt jednoznačnou odpověď na otázku, jaké informace mají být
v konceptu sémantického desktopu zobrazovány – vždy půjde o výběr a jeho konkrétní realizace
může mít velký vliv na chování lidí a jejich sociální vazby. Z možných rizik není možné zapomenout na
to, že se vývoj může silně roztříštit a fragmentovat, takže jednotlivé aplikace nebudou vzájemně
kompatibilní. Netriviální problémy mohou přinášet také různé licence a uzavřené formáty, které
propustnost buď ztíží, nebo úplně znemožní.46
Aktuální projekty
Sémantický desktop je dnes především presentován síťovým prostředím Nepomuk, které umožňuje
správu a tvorbu osobních ontologií na bázi řízení znalostí. Nejedná se o žádnou konkrétní aplikaci, ale
pouze o framework, který funkce sémantického desktopu zpřístupňuje. Celý projekt je open-source a
45
ČERNÝ, Michal. Budoucnost vyhledávání: Mezi soukromím, technologií a legislativou.
46
ČERNÝ, Michal. Budoucnost sémantického desktopu.
32
jeho cena byla 17 milionů eur, z toho 11,5 milionů financováno Evropskou unií, ale na vývoji se
podílela řada dalších firem, jako například IBM.47
V zásadě existují tři funkční varianty – první je implementace pro grafické prostředí KDE, druhá
pracuje v Javě a třetí je poskytována v rámci SaS, jako komerční produkt. Asi nejpoužívanější a silně
implementovanou variantou je především verze pro KDE 4, jehož je integrální součástí. Cílem je tedy
poskytnout vhodnou infrastrukturu rozšiřující osobní desktop do prostředí, které podporuje jednak
správu osobních informací, tak i sdílení a výměnu těchto informací v rámci sociálních i organizačních
vztahů.
Prakticky hojně užívaná je spolupráce Nepomuku s Akonadi v grafickém linuxovém prostředí KDE,
které spravuje PIM (Personal Information Manager) data, tedy adresář, kalendář a e-maily. Vzniká tak
jednotné prostředí pro přístup k datům, zcela nezávisle na konkrétních aplikacích. Akonadi spravuje
získávání dat a jejich ukládání, snaží se tak nahrazovat proprietární metody jednotlivých aplikací.
Data, kterými disponuje Akonadi, jsou uložena v databázi MySQL a jsou poskytována Nepomuku,
který s nimi pak může přiměřeným způsobem nakládat. S Nepomuk ale spolupracují desítky dalších
aplikací v prostředí KDE, jako je například správce souborů Dolphin, prohlížeč fotografií Gwenview
nebo knihovna médií Bangarang.48
Pokud jde o sémantický web, tam je k dispozici řada spíše akademických či experimentálně řešených
vyhledávačů, ovšem jen s minimální reálnou aplikovatelností. Zajímavým projektem je
WophramAlpha, který umí pracovat s dotazy v přirozeném jazyce a z hlediska uživatele se jeví jako
realizace sémantického webu (umí odpovědět na otázku, kdo je Václav Klaus, jaké bylo počasí 17. 11.
1989 nebo třeba porovnat náklady na životní úroveň v New Yorku a Bostonu). Pracuje ovšem se svoji
vlastní, uzavřenou databází znalostí, takže jde spíše o expertní systém než o sémantický web
v pravém slova smyslu. Na druhou stranu možná ukazuje cestu, jakou se vývoj v této oblasti bude
ubírat.49
47
DFKI GmbH - Knowledge Management Department. NEPOMUK - The Social Semantic Desktop - FP6-027705
48
VADINSKÝ, Ondřej. Nepomuk-KDE: Sémantický desktop pro Linux.
49
ČERNÝ, Michal a Gabriela ŠIMKOVÁ. Fascinující možnosti WolframAlpha.
33
Zpracování přirozeného jazyka
Zpracování přirozeného jazyka patří mezi oblasti informatiky, kterým se věnuje stále větší pozornost
a to již velice dlouho. U nás se první rozsáhlejší výzkumy a pokusy objevují v sedmdesátých letech a
jejich rozsah i význam stále roste. Cílem disciplíny je zajistit, aby počítače byly schopny s uživatelem
komunikovat pomocí jazyka, kterým běžně člověk mluví. To také vytyčuje základní dílčí disciplíny,
které se zde objevují. Jde především o syntézu řeči, rozpoznání řeči, strojový překlad, dolování dat,
extrakce a získávání informací, dialogové systémy atp.
Dnes již většina mobilních zařízení určitou formou zpracování přirozeného jazyka disponuje, stejně
tak běžný textový procesor umožňuje kontrolu pravopisu – od překlepů až po gramatické chyby ve
větné vazbě. Mimořádný význam má tato disciplína také pro osoby s určitou formou zdravotního
hendikepu. Asi každý zná fyzika Stephena Hawkinga, 50
který pro komunikaci s okolím užívá
syntetizátor řeči, nevidomí si mohou nechat napsaný text snadno přečíst atp.
Zajímavou oblastí je také sémantický web a desktop, tedy koncepty, které jsou založené na myšlence,
že počítače budou rozumět určitým datům a manipulovat s nimi. Díky tomu by byly schopné
odpovídat na otázky, vytvářet analýzy dosavadní komunikace s určitou osobou atp. V této oblasti je
zřejmé, jak těsně bude souviset právě zpracování přirozeného jazyka a umělá inteligence.
V době, kdy se zdá být běžné hlasové ovládání mobilních telefonů již téměř standardem (viz například
Apple Siri) se objevují zcela přirozené otázky po tom, jak tyto nástroje dále využívat a kam se může
celá oblast posouvat. Ukazuje se, že jde o možná jednu z nejkomplexnějších a nejsložitějších částí
informatiky, která má před sebou ještě dlouho cestu. Přesto jednotlivé dílčí poznatky mohou být
implementovány do běžného softwaru a intenzivně zvyšovat komfort uživatelů a to bez ohledu na to,
zda je či není problém přirozeného jazyka již zvládnutý či nikoli. Právě díky možnostem parciálních
aplikací jde o oblast, která by si zasloužila u vývojářů co možná největší pozornost.
Stephen Hawking je jedním z nejslavnějších lidí, kteří používají pro komunikaci se světem sintetizátor
řeči.51
50
Stephen Hawking. Wikipedia.
51
Speech synthesis. Wikipedia.
34
Soudobá technická praxe
Popisovat souborným způsobem technickou či technologickou praxi v oblasti zpracování přirozeného
jazyka (Natural language processing, též počítačová lingvistika a computational linguistics), je
v zásadě téměř nemožné, protože jde o oblast, která je mimořádným způsobem rozvětvená a složitá.
Proto se po všeobecném úvodu pokusíme ukázat soudobý stav a možnosti v jednotlivých tradičních
oblastech. Dynamismus celému odvětví přitom dávají relativně snadné aplikace do softwarové praxe
s případnou možností provázanosti jednotlivých dílčích úspěchů a hotových řešení do překvapivého
celku.
Přirozený jazyk je fenomén, který si zaslouží pozornost hned z několika důvodů. Předně je nástrojem
lidské komunikace, ale také jsou v něm uchovávány téměř všechny dokumenty, alespoň co se týče
jejich významu. Jazykové chování představuje jeden z fundamentů lidského chování a myšlení. Řeč je
rámec našeho myšlení. To vše dělá z přirozeného jazyka zcela přirozenou oblast zájmu řady dalších
disciplín, se kterými musí být informatika v těsném kontaktu:
Lingvistika zkoumá základní strukturu a vlastnosti jazyka. V moderním podání se může opřít o
Chomského třídy jazyků a jejich formální popis pomocí automatů, gramatik či regulárních
výrazů.
Psychologie se věnuje především procesům jazykové produkce, vztahu mezi emocemi a
jazykovými prostředky, tomu jak lidé poznávají a analyzují, na úrovni poznání, výroky
v přirozeném jazyce atp.
Filosofie jazyka se věnuje problematice vztahu myšlení člověka a jeho možností v kontextu
jazyka. Mezi základní otázky, které si klade, je problém, zda je možné myslet beze slov, co
jsou primitivní pojmy v jazyce, jak je člověk poznává, jakým způsobem je vůbec v lidské mysli
utvářen jazyk.
Logika, zvláště ta moderní, umožňuje matematicky popsat vztahy mezi jednotlivými výroky,
odvozování či vyvracení určitých formulí atp. Logické programování, které je formalizovanou
manipulací s logickými formulemi je základem pro umělou inteligenci, znalostní systémy i
zpracování přirozeného jazyka.
Samozřejmostí je pak integrace s dalšími počítačovými vědami, jako je studium umělé
inteligence, zpracování signálů atp. Ač je problematika NLP v řadě věcí specifická, je stále
součástí informatiky a zcela přirozeně z ní čerpá.52
Z hlediska problematiky zpracování přirozeného jazyka je zajímavé, že jde o jednu z oblastí, která se
vyznačuje v informatice mimořádně zajímavými programovacími prostředky. Velkou roli zde hraje
především programování logické (jazyky jako je Gödel či Prolog53
), což je velice podobné, jako
v oblasti umělé inteligence, ale své uplatnění zde naleznou také jazyky funkcionální. Jde tedy o oblast
z hlediska programátorského snad nejvíce zmatematizovanou. Díky dlouhé tradici, která je do velké
míry spojená s univerzitními projekty je sice možné stavět na známých otevřených kódech a již
publikovaných výsledcích, často ale v programovacích jazycích, které nejsou pro běžné užití úplně
vhodné.
52
PALA, Karel. Počítačové zpracování přirozeného jazyka.
53
KLAWONN, F. Prolog extensions to many-valued logics.
35
Zajímavým konceptem je pak budování umělých jazyků, které by umožnily nahradit jazyk přirozený,
třeba i více méně formálním přepisem. Jedním z příkladů je Basic English,54
tedy pokus o
jednoduchou angličtinu s omezeným množstvím slov a gramatických forem. Takto vytvořené umělé
jazyky se mohou podobat přirozeným a proces zpracování mimořádným způsobem usnadňují
(například syntéza řeči je zde téměř triviální).
Nyní se již můžeme podívat na současný stav a způsoby řešení jednotlivých dílčích úkolů či oblastí ve
zpracování přirozeného jazyka.
Syntéza řeči (text-to-speech) je jedním z velice populárních úkolů. První pokusy o převod textu na
hlasový signál se objevuje v aplikacích či operačních systémech, již od osmdesátých let. Přes původní
optimismus je ale zatím univerzální řešení v nedohlednu. Předně se budují jen pro konkrétní jazyky,
což je náročné a omezující. Kvalitní syntetizátory jsou tak v zásadě jen pro angličtinu. Druhým
problémem je neschopnost stroje porozumět textu, takže do něj nezanáší žádnou vlastní interpretaci
či emoce. Současné pokusy o řešení, pomocí slovníkových či náhodných metod, jsou zatím spíše
prenatálního charakteru.
Pokud jde o technické řešení, tak se využívá databáze s nahranými úseky slov (fony, difóny) či celými
slovy. Pokud jsou ukládány jen části slov, je syntéza rychlá a slovníky nejsou příliš velké. V případě
celých lexikálních jednotek je třeba mít velké databáze a nějak se vypořádat s časováním či
skloňováním, což je v jazycích jako je čeština či němčina relativně náročné. Pro umělé jazyky, jak je
třeba Basic English se ale mohou velice dobře celá slova hodit. Stejně tak se s nimi řeší pojmy
s odlišnou výslovností od ostatních atp. Nejčastěji se tedy užívá hybridní model, který čerpá z výhod
obou řešení.
Rozpoznávání řeči (speech recognition) má právě opačný smysl než syntéza řeči, totiž převést
mluvené slovo do textu. Jde o základní prvek, na kterém jsou postavené diktovací systémy, ale také
hlasové ovládání různých zařízení. Z hlediska algoritmického je vždy výhodnější pracovat s textem než
se zvukem. Opět platí, že téměř výhradně jsou kvalitní nástroje v angličtině, která je jednak na
rozpoznání jednoduchá, ale má také velké množství potenciálních uživatelů.
Z hlediska praktické implementace je možné systémy dělit na ty, které jsou na mluvčím
závislé, znají ho a mohou se dobře trénovat a na ty univerzální, které ale dosahují podstatně
horších výsledků. Nejčastěji se užívají Skryté Markovovy Modelely (HMM). Jde o automaty,
které využívají skrytých stavů. Řečový signál může být chápán jako po částech stacionární
signál. Řeč je tedy rozdělena na krátké úseky, takže může být aproximována jako stacionární
proces. Druhou metodou založenou na slovníkových databázích je DTW (Dynamic Time
Warping), která porovnává signál mluvčího s databázovou bankou slov či jejich částí.
Strojový překlad je jednou z dalších stále populárnějších oblastí zpracování přirozeného jazyka, který
se začal rozvíjet již po druhé světové válce. Cílem je převést text z jednoho jazyka do druhého (např.
z angličtiny do češtiny a naopak), což by se v naivním chápání mohlo jevit jako snadný úkol.
Jednotlivé přirozené jazyky se od sebe ale značně liší, ať již v šíři významu jednotlivých slov,
přítomností pádů, vidů či skloňováním a časováním, takže překlad není vůbec snadný.
54
CATTELL, Raymond B. A shortened “basic English” version (Form C) of the 16 PF Questionnaire.
36
Aktivně se užívají metody matematické statistiky. Možností, jak postupovat, je samozřejmě několik.
Dnes se intenzivně kombinují především dvě. První je založena na určení správného významu slova
z více možností pomocí jejich překladu v literárních dílech, druhá se snaží zapojit překlady od lidí,
kteří dané slovo v podobné konfiguraci pojmů překládají stejným způsobem. Ač jsou překladatelské
systémy stále dokonalejší, má strojový překlad k ideálu stále hodně daleko.
Mimořádně důležitá je také korektura textu. Pro základní kontrolu se nejčastěji užívají běžné
slovníky, doplněné o to, jak se které slovo v různých situacích může měnit pomocí rodů či druhů.
Náročnější je zajistit kontrolu gramatické správnosti, která již vyžaduje pokročilejší metody, jako je
identifikace podmětu, kontrola pádů či koncovek slov v kontextu věty atp. Dnes se stále více tato
disciplína prosazuje také mimo textové procesory do dalších oblastí.
Další bohaté aplikace se týkají snahy pochopit data a jejich význam tak, aby s nimi mohl počítač dále
efektivně pracovat. Ukazuje se, že původní koncept, kdy uživatel bude vytvářet pomocí RDF jazyka
ručně určitou specifikaci toho, jaký je význam sdělení, nefunguje a asi ani nikdy fungovat nebude.
Proto je třeba hledat nové cesty, které by stroji umožnily s textem nějak dále pracovat, například pro
získávání informací, odpovídání na otázky, provádění výtahů z textu či extrakce informací. Tyto
mechanismy stojí mimo jiné za SEO, respektive za způsobem, jak jednotlivé vyhledávací stroje řadí a
analyzují obsah dokumentů. Nejčastěji se používá analýza opakujících se pojmů, která současně
hodnotí to, na jak významných místech je slov užíváno (nadpisy, poznámky pod čarou, odkazy, …),
samozřejmě v kombinaci s dalšími algoritmickými nástroji.
Mimořádně důležité je pak již několikrát zmiňované spojení umělé inteligence či dialogových systémů
a NLP. Umělá inteligence umožňuje analyzovat obsah a zajišťuje odezvu počítače na jednotlivé
aktivity uživatele či jiného zdroje. Dialogové systémy jsou pak klíčové z hlediska kontroly či analýzy
rozhovorů, mohou zajistit efektivnější komunikaci nebo třeba odhalovat teroristy či podvody.
Silné stránky a možnosti
Jak již bylo řečeno, problematika zpracování přirozeného jazyka je jedna z marketingově, vědecky i
uživatelsky nejpřitažlivějších částí soudobé informatiky vůbec. Jednou z domén téměř všech sci-fi
knih a filmů je hlasové ovládání počítače, jeho schopnost porozumět výrazům a textům, efektivně
dolovat znalosti a rozhodovat se podle nich. Například strojový překlad v kombinaci s extrahováním
textu hrál důležitou roli během studia signálů a textů během studené války.
V tomto kontextu je možné říci, že jistě půjde o oblast, která se bude velice rychle a dynamicky
vyvíjet, ale současně bude potřebovat stále větší podporu spojených disciplín. Jde především o
počítačové zpracování emocí. To je třeba jednak pro kvalitně provedenou syntézu řeči, která má znít
co možná nejpřirozeněji, ale mnohem podstatnější je pro rozpoznávání řeči. Člověk v různých
emocionálních stavech mění tempo řeči, jeho intenzitu i modulárnost, což ztěžuje jeho dobré
pochopení. Pokud se podaří rychle a dobře měřit emoce (pomocí teploty kůže a jejího galvanického
odporu, tepu a dalších fyzikálních parametrů) může se celé odvětví rychle měnit. Emoce mohou
posloužit také pro identifikaci sémantického významu slov, dvojsmyslů či ironie.55
Dalším důležitým zdrojem inovací jsou pokroky v umělé inteligenci, která do velké míry může mít na
vstupu i výstupu své činnosti systém přirozeného zpracování umělého jazyka, ale je to právě ona,
55
Podrobněji v následující kapitole.
37
která mu bude propůjčovat stále větší možnosti. Například v oblasti postupně se rozvíjejícího
sémantického desktopu.
Mimořádně důležité jsou slovníky či korpusy, které slouží k identifikaci jednotlivých prvků v jazyce.
Měly obsahovat nejen velké množství textů (optimálně jak zvukového tak také textového
charakteru), ale také z hlediska obsahového by měly být co nejbohatší. Ke každému pojmu je třeba
vybudovat celou řadu pomocných značek, symbolů a informací, které umožní s nimi co možná
nejlépe pracovat. Kdybychom zafixovali vývoj všech nových technologií, tak jen rozrůstáním korpusů
se bude kvalita NLP neustále zvyšovat.
Velké naděje je možné vkládat do stále se zlepšujících databázových systémů, které
představují jeden ze základních prvků, omezujících aktivní praktické užívání. Každá změna na
úrovni rychlosti či možnosti databáze se hned odráží na celkovém výkonu většiny reálných
aplikací. Ať již je to pozvolný rozvoj MariaDB,56
která se snaží nahradit hojně užívané, ale již
málo vyvíjené MySQL nebo třeba NoSQL databáze, které jsou v celé řadě případů efektivnější
a lepší.
V oblasti syntézy řeči je pak třeba vidět především možnosti postupného se rozšiřování na další
jazyky, než je angličtina, respektive jejich zvyšování kvality. To se může uplatnit v ovládání a
komunikaci s nejrůznějšími zařízeními, jako jsou počítače, mobilní telefony či inteligentní prvky na
úřadech.
Rozpoznání řeči má také celou řadu aplikací. Dnes se již prosazuje možnost automatické tvorby
titulků k přednáškám či filmům a videoklipům, což je z hlediska jejich uživatelské přívětivosti, ale také
třeba obsahového dalšího zpracování mimořádně užitečné.57
Samozřejmě zde můžeme hovořit také o
významu pro ovládání zařízení, nebo snížení nároků na nejrůznější zapisovatele a podobné
pracovníky. Pro velkou část profesí mohou existovat kvalitní specializované slovníky, které umožní
mnohem větší efektivitu práce soudů či lékařů.
Strojový překlad je další oblast s obrovským ekonomickým potenciálem. Stačí si jen představit, že
česky psaný web o určité technologii nebude přístupný trhu s tisíci potenciálními česky čtoucími
uživateli, ale všem. Strojový překlad může mít zásadní dopad na internetový marketing, média či
globalizaci řady služeb a produktů.
Zajímavou oblastí jsou pak nástroje pro generování přirozeného jazyka z určitých, jasně daných scén.
Postupně se objevuje software, který si bez potíží poradí s textovou reportáží z hokejového zápasu a
pokud se vylepší syntéza řeči a zpracování emocí, můžeme se dočkat zajímavé revoluce také
rozhlasové či televizní. Určit kdo komu dal jakou přihrávku, kolik hokejista nabruslil, kolikráte vystřelil
a zajímavosti z jeho minulosti může stroj zvládat mnohem lépe a přesněji než člověk.
Slabé stránky a možné problémy
Z výše uvedeného by se možná mohlo zdát, že oblasti NLP neexistují žádné problémy a že
budoucnost je jasně daná a růžová. Historická zkušenost nás ale před takovým optimismem musí
varovat. 7. ledna roku 1954 představila firma IBM první strojový překladač z ruštiny do angličtiny,
který obsahoval jen 250 slov a dokázal přeložit jen 49 předem vybraných vět. Přesto tento pokus
56
KNOWLES, Seymour, et al. A natural language database interface for sql-tutor.
57
Aktuální výsledky výzkumu ZČU v Plzni v oblasti podtitulkování pořadů pro neslyšící.
38
vzbuzoval úžas a velká část odborné obce očekávala, že dokonalý univerzální strojový překladač je již
jen otázkou času. Dnešní skutečnost je taková, že solidní strojový překlad umíme jen mezi
morfologicky velice podobnými jazyky.
Podobně je na tom také syntéza řeči, která se začala objevovat v operačních systémech pře asi třemi
desítkami let. Také se mělo za to, že mírně roztrhanou a „robotickou“ řeč stačí jen lehce upravit a
doladit a nikdo nepozná její hlas od skutečného mluvčího. Opět je situace o mnoho složitější a
kvalitně znějící syntetizátory jsou obvykle spojeny se silným slovníkem celých slov. Dějiny tedy
ukazují, že pokroky se v oblasti zpracování přirozeného jazyka sice dějí, ale mnohem pomaleji, než si
obvykle myslíme.
Velkou skupinou problémů, které je třeba také uvažovat, jsou ty etické a právní. V oblasti práva je
třeba říci, že jednak je nutné velice obezřetně pracovat s osobními údaji, které třeba sémantický
desktop umožňuje plně organisovat do databází nebo uvážit legislativní ochranu nových autorských
děl, což má nepříjemné konsekvence směrem k efektivnímu strojovému překladu či získávání znalostí
a odpovědí na důležité aktuální otázky. Pro NLP potřebujeme mít zpracováno co možná největší
množství relativně aktuálního a kvalitního textu, abychom mohli zajistit dobrou komunikaci.
Z etických problémů je možné uvést třeba snadnou možnost manipulace s osobou, která se bude na
expertní systémy spoléhat. Pro řadu lidí bude stále obtížnější rozhodnout, kdy jednají s osobou a kdy
se strojem. Pokud nedokážeme u systému zajistit bezpečnost a neutralitu (může-li nějaká vůbec
existovat), je jeho uživatel, který se spoléhá na kvalitu odpovědí a jejich pravdivost, relativně snadno
ovlivnitelný. Tato skutečnost může mít fatální důsledky pro demokracii či svobodný přístup
k informacím a NLP může být snadno zneužitelné.
Další etickým problémem může být ochrana soukromí. Zatímco dnes je stále nemožné, že by někdo
mohl provádět globální monitoring veškeré komunikace, analyzoval ji, chápal její smysl a dále ji
zpracovával, s kvalitními nástroji toto nemusí být vůbec problematické. Najít možnosti zneužití pro
reklamu, manipulaci s veřejným míněním atp. nemusí být nijak obtížné. I když podobné aktivity
mohou být na první pohled maskovány například bojem proti dětské pornografii či terorismu.
Další velice problematickou oblastí je sémantický web,58
který byl považován za vlajkovou loď celého
NLP. Cílem bylo vytvořit takovou podobu webu, kterému budou schopny počítače porozumět,
získávat z nich informace a odpovídat na jednotlivé dotazy. To by zásadním způsobem změnilo to, jak
se vyhledává na internetu, prodávají služby a řadu dalších věcí. Problém je v tom, že sémantický web,
přes velké investice, neexistuje. Nejsou lidé, kteří by byli ochotní jej pomocí RDF budovat a ani
poloautomatické nástroje nejsou dost masové a efektivní. Zatímco ještě před pěti či deseti lety o
sémantickém webu málokdo pochyboval, dnes v něj již téměř nikdo nevěří.
Ač lze říci, že vývoj NLP jde postupně dále, sémantický web je stále více jen okrajovou záležitostí a
řada věcí se řeší oklikou, která tyto nástroje simuluje z pohledu uživatele, ale ve skutečnosti má se
sémantickou analýzou společného jen málo. Bylo by ale chybou upínat se k jednomu konkrétnímu, i
když slibně se rozvíjejícímu konceptu.
V neposlední řadě je možné se zmínit o problémech vázanosti jednotlivých postupů na konkrétní
jazyk. Díky této nepříjemné vlastnosti není snadné dělat univerzálně funkční nástroje, které by jen
58
Tématice sémantického webu a desktopu se věnujeme podrobněji v samostatné kapitole.
39
přejaly jiný korpus a snadno by fungovaly zcela beze změny. Intenzivní výzkum se tak soustředí (a to
jak akademický, tak také komerční) především na angličtinu, což představuje určitý blok omezující
potenciální trh. Do českého prostředí se tak aplikací dostává relativně méně, i když třeba akademická
aktivita v této oblasti je jinak mimořádně vysoká s dobrými výsledky. Čeština je navíc obecně pro NLP
mimořádně obtížný jazyk.
Aktuální projekty
Jednou z nejznámějších aplikací, které NLP nabízí v oblasti rozpoznání hlasu je titulkování videa na
YouTube. Je třeba říci, že angličtina funguje relativně dobře, ale další jazyky jsou podstatně slabší.
Přesto mohou dobře posloužit především cizímu jazyku neznalým nebo třeba neslyšícím lidem. 59
V českém prostředí pak v této oblasti lze zmínit především Superlectures,60
která je zaměřená na
přednášky a akademické účely. Pokud je přednášející dobře nasnímán (mimo jiné třeba obličej), lze
jeho řeč rozpoznat a převést na titulky, které se automaticky vkládají k videu. Jde o velice
perspektivní technologii, kterou rozhodně není možné opomenout.
V oblasti mobilních zařízení patří mezi nejznámější hlasové ovládání telefonu iPhone pomocí
hlasového asistenta Siri (obdobnou technologií disponuje také Android), který umožňuje pomocí
hlasu snadno používat velkou část funkcí telefonu, vyhledávat na internetu atp. Jednodušší
syntetizéry řeči lze najít jako doplňky operačních systémů, webových prohlížečů atp. Velice důležité
jsou také jako součást asistivních technologií.
Obecně je možné říci, že spojení rozpoznání jazyka a jeho syntéza je dnes hojně využívána také u
telefonních automatů nejrůznějších linek, kde lze předpokládat omezené množství dotazů a
problémů. Software dokáže na základě „rozhovoru“ identifikovat potřeby volajícího a buď jej zcela
uspokojit, nebo přesměrovat na přesně daného lidského experta včetně všech potřebných informací.
Zřejmě nejdále se dostal strojový v překlad u Google Translatoru, který umožňuje online přeložit web
či zadaný text a kombinuje jej také s jednoduchou syntézou řeči. Přesto lze říci, že tento překlad
obsahuje velké množství chyb, působí uměle a nepřirozeně.
Zajímavým projektem je také sémantický desktop v projektu Nepomuk,61
který se snaží vytvořit
koncept počítače, který bude rozumět datům a umět přenášet informace mezi jednotlivými nástroji.
Mimo řady užitečných funkcí je na něm dobře vidět soubor většiny problémů neduhů NLP, stejně
jako to, že často je efektivnější informaticky čisté a teoreticky kvalitní řešení nějak parciálně obejít.
59
Youtube. Automatic captions.
60
Superlectures. Konference/přednášky.
61
SemanticDesktop.org: OSCAF/NEPOMUK Ontologies.
40
Počítačové zpracování emocí
Počítačové zpracování emocí (Affective computing) patří nepochybně mezi jednu z nejzajímavějších
částí informatiky, která má na jednu stranu relativně dlouhou tradici, ale současně zatím nepřináší
očekávané výsledky. Navíc je spojená s mimořádně obsáhlým teoretickým aparátem, což otevírá
možnosti především vývojářům, kteří jsou odborně zdatní i v matematice a teoretické informatice.
Cílem počítačového zpracování emocí je vývoj softwaru či jeho kombinace s hardwarem, který by
uměl rozpoznat, interpretovat či simulovat lidské emoce. Důvodů, proč se věnovat této oblasti, je
celá řada. Nejvíce se hovoří o zlepšení komunikace počítače a člověka (HCI), růstu efektivity
pracovního a vzdělávacího procesu, lepší podpory inteligentních domácností, medicínském využití
v psychologii, psychiatrii atp.
Jde o oblast silně interdisciplinární, která vychází z kognitivních věd – informatiky, psychologie,
fyziologie, fyziky, lingvistiky či biochemie. Je přitom třeba zdůraznit, že emoce hrají v lidském životě
ústřední roli. Zatímco Descartes se je snažil označit jako iracionální a ve své podstatě nechtěné, dnes
víme, že jsou součástí chování i rozhodování stejně, jako racionální analýza.62
Komunikovat
s člověkem, který nejen neprojevuje své emoce, ale také vůbec nechápe emoce druhých, je
mimořádně nepříjemné a složité. Z tohoto hlediska lze oblast počítačového zpracování emocí označit
za jednu z nejdůležitějších v informatice vůbec.
Na rozdíl od člověka mohou mít počítače mnohem širší škálu nástrojů, kterými jsou emoce
detekovatelné – nemusí mít jen analýzu hlasu a výrazu člověka, ale také disponují senzory, které
umožňují principiálně zjišťovat mnohem větší množství dat, která pro analýzu emocí lze použít.
Výsledky jsou ale zatím spíše neuspokojivé.
62
ŠVANCARA, Josef. Emoce, motivace, volní procesy.
41
Jedno z možných základních dělení emocí.63
Současná technická praxe
Prvním důležitým tématem, se kterým je třeba se v oblasti Affective computing vypořádat, je detekce
či měření emocí či emocionálního stavu člověka. Na tomto místě nebudeme analyzovat co vlastně
emoce je či není, ale budeme ji chápat jako psychosomatický projev. Předpokládáme, že emoce se
projevují navenek, což je ostatně jediná cesta, jak je zachytit (pomineme-li sci-fi scénáře o analýze
elektromagnetických vln v mozku).
Existuje několik základních možností, jak emoce měřit. Nejjednodušším rozdělením je pozorování a
aktivní měření pomocí určitých senzorů. Pozorování je relativně jednoduché, co se požadavků na
hardware týče, neboť předpokládá jen existenci mikrofonu či kamery, což jsou komponenty, kterými
všechny moderní telefony disponují a má je i většina počítačů. Naopak u senzorických měření je třeba
počítat s vývojem také speciálních zařízení, která by měřila určité tělesné projevy.
Jednou z možných cest je analýza řeči. Například při strachu, hněvu či radosti mluvíme rychleji a
hlasitěji, avšak při nudě, smutku či únavě je mluva pomalejší a méně zřetelná. Pokud máme systém,
který pracuje s jedním člověkem relativně dlouhou dobu, tak lze pomocí Fourierovy analýzy tyto
změny identifikovat a provádět základní rozčlenění dle nálad. Probléme je, že radost a hněv se může
projevovat relativně velice podobně, ale na základě takto hrubé analýzy je mezi nimi těžké přesně
rozlišit.64
Běžně se neměří jen rychlost a hlasitost, ale také průměrná výška hlasu, rozsah výšek, kvalita,
artikulace či změna výšky. Kombinace všech těchto parametrů by měla být pro základní emoce
dostatečná, ale vždy záleží také na dalších determinantech, jak je osobnostní profil mluvčího, zda
hovoří v rodné či cizí řeči nebo třeba zda není pod vlivem nějaké návykové látky či alkoholu. Roli
může hrát také ale například přízvuk, nachlazení, bolest zubů a řada dalších vlivů.
U analýzy hlasu existují samozřejmě také další jemnější mechanismy, které se snaží emoce
analyzovat, ale s tím, jak jsou více subtilní, klesá i jejich přesnost a spolehlivost. Zajímavou kategorií
hlasové analýzy je identifikace ironií, nadsázek nebo prosté zjištění, která věta je oznamovací a která
tázací. To jsou důležité problémy, které je třeba řešit a mají zásadní dopad například na zpracování
přirozeného jazyka nebo dolování dat. Věta „Dnes ti to opravdu sluší“ má, v závislosti na intonaci, dva
protichůdné významy, které je nutné odlišit. Neméně významným problémem je kumulace emocí,
jako je hněv a ironie, které zní zcela jinak než radost a ironie.
Druhou metodou pro práci s emocemi je analýza obličeje a mimiky, která je u většiny národů
vnímána jako běžná součást komunikačního procesu. Zachycení a rozpoznání výrazů obličeje může
být realizováno nejrůznějšími metodami. Zřejmě nejjednodušší je optické snímání a sledování
s překryvem v určitých korpusech výrazů. Paul Ekman dělí výrazy obličeje podle šesti základních
emocí: radost, hněv, údiv, znechucení, strach a smutek. Všechny další emoce jsou součtem těchto
základních v nějaké umenšené míře (například 20 % radosti + 60 % údivu + 20 % strachu atp.).65
63
Emotion. Wikipedia.
64
JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí.
65
EKMAN, Paul. Basic emotions. Handbook of cognition and emotion.
42
Velice často se používají kombinace obou výše uvedených metod, které umožňují přesněji
rozhodnout, o jaký druh emoce se jedná – každá nezávisle definuje vlastní množinu možností a hledá
se jejich vzájemný průnik. Výrazy ve tváři mohou být ale silně závislé na kulturním kontextu nebo na
zdravotním stavu komunikujícího, což je další důležitý prvek, který je třeba v této oblasti sledovat.
Zajímavou záležitostí je práce s gesty a řečí těla obecně. Pomocí gest lze (opět pomocí korpusů a
matematické analýzy) identifikovat určité důležité emoce. Tyto techniky se často používají pro
sledování osob na letištích nebo v davu, kde lze rozpoznat například teroristu pomocí speciálních
pohybových vzorců. Jde tak o důležitý bezpečnostní prvek, který se zatím ale pro běžné komunikační
účely příliš nepoužívá.
Mimo pouhých observačních metod lze využívat také senzorické sítě a detektory, které se dnes běžně
užívají i na nespolehlivých a nechvalně známých detektorech lži. Pokud je člověk nervózní, tak se
obvykle potí, což se projevuje na jeho galvanickém odporu kůže, který lze relativně snadno měřit.
Galvanický odpor lze měřit pouze dotekem, což nijak nesnižuje komfort uživatele. Z tohoto hlediska
jde o relativně užitečnou technologii.66
Z kontaktních metod lze uvést ještě měření tepu a tlaku krve, které se opět mění v závislosti na
konkrétním emocionálním stavu jedince. Lze ale analyzovat rychlost a hloubku dechu a další
somatické projevy. Obecně platí zásada, že jsou preferovány metody, které nevyžadují práci s gely či
jiný nepříjemný kontakt pro uživatele. Problémem u méně obvyklých postupů jsou pak často malé
korpusy, což zvyšuje jak časové, tak také finanční nároky na jejich implementaci a snižuje spolehlivost
takové metody.
Pro praktické zpracování emocí se často používají skryté Markovovy modely, které jsou
podrobněji diskutovány v kapitole věnující se problematice zpracování přirozeného jazyka.
Mimo samotné detekce a zpracování emocí člověka, který interaguje s počítačem, je druhou
důležitou částí této problematiky také modelování emocí pro výstup počítače.
Jde o relativně zajímavou část výzkumu, která je užitečná například pro tvorbu animací, kde by
nemuseli grafici ručně animovat jednotlivé pohyby na tvářích a gesta, ale jen by rozvíjely či
personalizovaly jednotlivé hotové koncepty. Důležitá je tato schopnost pro syntézu řeči. Pokud
posloucháme dnešní nástroje, mají většinou konstantní náladu a jejich hlas proto nepůsobí příliš
přirozeně ani příjemně. Z tohoto důvodu by bylo žádoucí, aby se práce s emocemi projevila také
v této oblasti.
Jednou z klíčových technických záležitostí v oblasti zpracování emocí je tvorba korpusů. Bylo by
vhodné, aby existovala co možná největší databáze toho, jak vypadají jednotlivé vokální, ale také
mimické či somatické projevy jednotlivých emocí, aby je mohl koncový vývojář snadno vzít a
implementovat do svých aplikací. Ač dnes již existují korpusy, které mapují výrazy či gesta (ať již
formou 2D či 3D obrázků), lze říci, že ke snadno přenositelným databankám je ještě daleko.
Návaznost na další technologie
Počítačové zpracování emocí není ani v nejmenším izolovanou disciplínou, ale nabízí řadu průsečíků
s dalšími obory či technologiemi. První oblastí, která se logicky nabízí, je zpracování přirozeného
jazyka. Identifikace emocí je důležitá pro pochopení významu sdělení. Nejde přitom jen o ironii, ale
66
KOPEČEK, Ivan. Počítačové zpracování emocí: Affective computing.
43
existují jazyky – jako například čínština – kde rozdíl mezi slovy je jen v nepatrném přízvuku. Ten se ale
může s emočním stavem mluvčího měnit.
Jde také o klíčovou technologii, pokud jde o dialogové systémy a syntézu řeči.67
Bez schopnosti
poznat, jakým emocionálním naladěním má být text přečten, lze těžko uvažovat o tom, že by pomocí
syntézy řeči mohla probíhat výuka nebo tvorba audioknih. V těchto oblastech je přirozenost projevu
a jeho emocionální naladění, respektive proměny v závislosti na obsahu, mimořádně důležité. Také u
dialogových či expertních systémů lze emoce používat jako jeden z kontrolních mechanismů. Člověk
mající strach například nemá úplně přesný úsudek a systém by se měl ve vyhodnocování situace
spoléhat na jiná data, než je sdělení člověka.
Affective computing hraje klíčovou roli v tom, jak by měla být ovládána zařízení a měnit se jejich
grafické rozhraní. Jestliže dnes je tématem responzivní design, stojící na myšlence, že by web či
aplikace měla dynamicky měnit svůj vzhled a rozložení, podle toho, na jakém je zařízení provozována,
tak v budoucnosti bude probíhat totéž na základě emocionálního stavu uživatele. Osoba plná hněvu
bude vyžadovat zcela jinou kalibraci dotekového displeji i velikost oken. Některé funkce či možnosti
je naopak dobré před ní co možná nejvíce ukrýt.
Také v oblasti internetu věcí lze nalézt celou řadu možných využití. Od analýzy emocí více různými
zařízeními, přes analýzu vzorců chování (tablet může poznat špatnou náladu uživatele tím, že si
někoho vymaže ze seznamu kontaktů a pustí si svou oblíbenou smuteční píseň, atp.) a tato data pak
předávat dál. Není třeba, aby si každé zařízení zvlášť dělalo komplexní analýzu, ale každé může
přispět k přesnějšímu poznání emocí a tato data spolu sdílet.
Samozřejmostí je pak návaznost na počítačové zpracování hlasu a obrazu, který je pro tyto účely
nezbytný, nebo spolupráce s nejrůznějšími elektro obory, které se věnují jak tvorbě příslušných
detektorů, tak také zpracováním digitálních signálů.
Silné stránky a možnosti
Hlavní oblastí, kde se počítačové zpracování emocí bude v nejbližší době prosazovat, je zajištění
pohodlnější a lepší komunikace mezi člověkem a počítačem a to hned v několika rovinách. Tou první
je správa zařízení a internetu věcí, která budou využívat emoce k lepší péči o své uživatele. Telefon
tak například může měnit citlivost displeje či jeho jas a kontrast v závislosti na emocionálním stavu
uživatele.68
Možností je ale samozřejmě více – lze si například představit nastavené vzorce chování, které bude
chtít mít uživatel k dispozici – pokud se vrací z práce unavený, chce silnější kávu, když je ale horko,
tak se udělá ledová. Podobně komplexně lze řešit také třeba výběr hudby či texty, které se budou
agregovat do čtečky zpráv. Uživatel by tak měl dostávat komfort, který bude respektovat jeho
aktuální pocity, aniž by musel sám aktivně do těchto procesů nějak zasahovat.69
Detekce emocí umožňuje zásadním způsobem zvýšit pracovní výkonnost. Pokud bude počítač
analyzovat emocionální stav uživatele, může mu dávat úkoly v takovém pořadí a struktuře, jaká je
67
Srov. KOPEČEK, Ivan. Personality and Emotions - Finite State Modelling by Dialogue Automata. a KOPEČEK,
Ivan, Karel PALA a Markéta STRAŇÁKOVÁ-LOPATKOVÁ. Ambiguity Problems in Human-Computer Interaction.
68
BROCKMEIER, Joe. What We Lose in a Post-PC World.
69
ČERNÝ, Michal. Počítačové zpracování emocí.
44
optimální pro jeho konkrétní pracovní nasazení. Pokud je svěží a odpočatý, bude se věnovat kreativní
činnosti, při únavě pak dostane například vyřizování korespondence či nařízenou přestávku na sport.
Díky vhodnému střídání činností lze s pracovním tempem lidí velice dobře zacházet a nárůst efektivity
nemusí být jen v řádu jednotek procent.
Podobně lze snadno rozhodnout, že zaměstnanec není v kondici, která by pro jeho práci byla
adekvátní a poslat jej domů (nebo ho do práce neposílat vůbec). Tím dochází k lepší optimalizaci
zdrojů, v pracovním prostředí se nepohybují lidé, kteří nic nedělají a jen demotivují druhé, šetří se
náklady na elektřinu atp. Tyto změny tak mohou být přínosné pro celý pracovní kolektiv, pokud se
s nimi bude umět dobře zacházet.
Takto pojatý koncept s činnostmi, které jsou řízené emocemi, může znamenat také revoluci v tom,
jak probíhá vzdělávací proces. Systém může nejen sám střídat předměty a látku tak, aby se na danou
činnost student co nejvíce soustředil a pociťoval minimum negativních emocí (zde by bylo zajímavé
zvážit, co by bylo tím optimem, se kterým bychom pracovali), ale také vhodně užívat různé didaktické
formy – někdo nemá rád testy, tak jich bude mít ve výuce minimu a znalosti se budou ověřovat
řešením problémů či projekty, někdo preferuje prezentace před souvislým textem,… Vzdělání se díky
těmto technologiím může stát silně perzonalizované a bude znamenat konečně přechod od 1:N k 1:1
modelu.70
Emoce jsou zajímavý zdrojem dat také pro další systémy či aplikace, které s nimi na první pohled
úplně nesouvisí. Lze si tak představit, že výsledky vyhledávání se již nebudou přepočítávány jen podle
předchozích zkušeností s vyhledáváním či jinak uloženými daty, ale také reflektovat to, jak se člověk
v daný okamžik aktuálně cítí.
Další důležitou oblastí jsou nejrůznější bezpečnostní systémy – pomocí detekce emocí lze podle
pohybu a teploty identifikovat potenciální útočníky na letištích, zloděje v ulicích nebo třeba studenty,
kteří opisují při testech. Spolehlivost těchto zařízení není rozhodně stoprocentní, ale umožňují
alespoň částečně rozhodnout, na které osoby se s patřičnými preventivními opatřeními zaměřit
především.
Velký potenciál má zpracování emocí také v oblasti syntézy řeči. Aby byl text zapamatovatelný a pro
posluchače pochopitelný a zajímavý, je třeba, aby se v něm na správných místech vyskytovali
příslušné emoce. Počítačové zpracování se nezabývá jen prostou analýzou emocí a jejich detekcí, ale
také vlastními modely pro jejich simulování. Jedním z cílů by tak mělo být určení, které skupiny slov
jsou spojené s určitou emocí a podle toho upravit umělý hlas. Pokud chceme uvažovat o dialogových
systémech, které budou relativně přirozeně komunikovat s člověkem, je nutné hledat cesty pro tento
druh analýzy.71
Oblastí využití je ale celá řada – lze si je dobře představit jako podporu pro psychologické poradenství
nebo jako součást nejrůznějších preventivních a výchovných programů, stejně jako ve zdravotnické
oblasti.
70
BRDIČKA, Bořivoj. Skutečné možnosti využití daty řízeného školství. a BRDIČKA, Bořivoj. Daty řízené školství,
politika a technologie.
71
RUBIN, V.; STANTON, J.; LIDDY, E. Discerning emotions in texts.
45
Slabé stránky a možné problémy
Počítačové zpracování emocí patří nepochybně mezi nejkontroverznější technologie dneška. Prvním
problémem může být otázka ochrany soukromí. V západním kulturním okruhu (a nejen v něm) je
vnímáno nepříliš pozitivně, pokud někdo projevuje své emoce přehnaně. Schopnost sebeovládání,
kontroly nad tím co děláme nebo odhlédnutí od emocí, patří již od doby Descartese ke ctnostem,
které člověka spíše zdobí. Zpracování emocí jde ale přesně opačným směrem, když se je snaží
jednoznačně pojmenovat, analyzovat a využívat.
Představa, že má zaměstnavatel přehled o emocionálním stavu svých zaměstnanců, může na první
pohled vypadat dobře z hlediska efektivity práce a pracovního nasazení, nebo umožnit zajímavé
manažerské experimenty, ale současně jde o bezprecedentní zásah do soukromí. Můžeme hovořit o
jakémsi novém otroctví, kde nejsou lidé ovládání pomocí explicitní moci, ale rafinovaným souborem
motivátorů, které reflektují jejich emocionální stav. Ať již člověk chce nebo ne, před vhodně cílenými
emocionálními manipulacemi se lze bránit podstatně obtížněji, než v případě racionálních argumentů
nebo nějakých plošných citových výlevů.
Právě argument s novodobou totalitou či otroctvím patří mezi nejdůležitější. Takový zásah do
soukromí nebo sledování občanů v nedemokratických státech patří k problémům, které budou
zavádění počítačového zpracování emocí provázet. Není velkým problémem podle pohybu a dalších
projevů identifikovat, kdo je disident či jinověrec, který přichází do budovy dělat nějakou
„nedovolenou“ činnost. Jde o zcela bezprecedentní zásah do soukromí, což celá řada osob může nést
velice těžce.72
Také pracovní výkonost nemusí být zcela bez potíží – o nárůstu krátkodobého výkonu zřejmě bude
pochybovat málo kdo, avšak dlouhodobá data a dopady neznáme. Je možné, že negativním jevem
bude naprosté vyčerpání z práce, deprese a další projevy, které můžeme sledovat u profesí, které
jsou typické pro moderní informační společnost.
Jiným zajímavým problémem může být přecenění možností, které má počítačové zpracování emocí
k dispozici. Příkladem může být nevhodné použití detektoru lži. Není velkým problémem pro
trénovaného člověka či patologického člověka (psychopata či sociopata) podobný přístroj úmyslně
obelstít a naopak nervózní člověk může být usvědčen z trestného činu, který nikdy nespáchal.
Z hlediska funkčnosti jde sice o zajímavý experiment a první pokus o zpracování emocí, ale není
možné jej vnímat ani jako důkaz, ani jako podpůrný argument k čemukoliv.
Z teoretického pohledu je pak velkým problémem klasifikace emocí. Zcela jiný systém nabízí Watson
(strach, láska, zlost), Weiner a Graham (štěstí a smutek) nebo Izard (Hněv, opovržení, znechucení,
úzkost, strach, vina, zájem, radost, hanba, překvapení). Najít optimum není vůbec snadné a pro
každou metodu je výhodné jiné členění. Vzájemná nekompatibilita nejen snižuje možnost tvorby
přenositelných korpusů, ale také spolupráci aplikací či senzorů.73
Nejde přitom jen o klasifikaci emocí, ale také o to, že jsou pokaždé jinak skládány a doplňovány.
Problémem také je, že pokud k někomu současně cítíme lásku a nenávist, obvykle nejde o časovou
současnost, ale o aperiodické střídání těchto pocitů. To vše je třeba zvážit při návrhu systémů, které
budou s emocemi pracovat.
72
ČERNÝ, Michal. Vybraná témata ze sociální informatiky II.
73
JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí.
46
Pokud jde o senzorické měření je třeba říci, že se neustále naráží na různé problémy, které souvisí se
samotným procesem – buď nejsou čipy dostatečně miniaturizované, nebo je pro jejich použití třeba
nějaké větší zapojení uživatele (natření místa gelem, připojení měřícího přístroje,…), což je pro řadu
lidí nepříjemné, nepohodlné a tato skutečnost měření bude omezovat. Jednou z nejpřesnějších
metod je například měření hladiny hormonů v krvi, což by vyžadovalo implantaci měřícího zařízení
přímo do žíly nebo pravidelný odběr krve.
V neposlední řadě je nutné uvážit nároky na výpočetní výkon. Velká část aplikací vyžaduje okamžitou
reakci a detekovat a vhodně zpracovat emoce nemusí být vůbec jednoduché z hlediska výpočetního
výkonu. Také náročnost na zpracování modelů po odborné stránce není vůbec snadné, neboť
vyžaduje silnou interdisciplinární spolupráci mezi matematiky, psychology, teoretickými informatiky,
odborníky na elektroniku či aplikovanými informatiky.
Aktuální projekty
Mimořádně zajímavou skupinou aktuálních projektů jsou ty, které se věnují psychologickým a
psychiatrickým problémům. Důležité jsou výzkumy osob s autistickými poruchami, pro které jsou
určené nejen pokročilé detekční systémy, které jim pomáhají uvědomovat si, co vlastně cítí, ale slouží
také ošetřujícím osobám tak, aby pacientům umožnili komunikaci s minimem stresových či jinak
problematických situací. Jde o jednu z nejdůležitějších oblastí a aktuálních projektů je v této oblasti
skutečně mnoho. Podobně mají fungovat systémy pro predikci záchvatů epilepsie, které umožní
nemocným se na jeho příchod připravit a minimalizovat tak nebezpečí, která jsou s ním spojeny.74
Dnes jsou první systémy pro affective computing implementovány také do robotů a agentů, kteří
disponují umělou inteligencí. Díky tomu jsou mnohem efektivnější, mají přesnější reakce a je
mnohem obtížnější je rozlišit od obyčejných lidí. V horším případě jsou součástí projektů, které
pracují se socialboty, v lepším je lze použít pro modelování nejrůznějších sociologických modelů,
které musí s existencí emocí počítat.
Populární jsou projekty, které se snaží rozpoznávat emoce v řeči či gestech. Díky různým
frameworkům jde již o relativně nenáročné projekty na úrovni studentských prací. Pracuje se také
nejrůznějších projektech pro sebehodnocení a analýzu vlastních emocí, vzorců chování či potřeb.75
Populární jsou detektory emocí v hlasových automatech, kde umožňují jednak upozornit operátora
na emocionální rozložení volajícího, ale také zlepšují navigaci a nabídku případných služeb. Používají
se také na letištích pro identifikaci teroristů, ale stejně tak mohou posloužit pro cílenou
marketingovou kampaň.
74
Zajímavým zdrojem může být seznam projektů z počítačového zpracování emocí na MIT; MIT. Affective
Computing.
75
WOLF, Gary. The data-driven life.
47
Síťové trendy a projekty
Počítačové sítě v nejrůznějších podobách sehráli klíčovou roli nejen v době informační revoluce, ale
také dnes. Internet, ale také firemní sítě či mobilní sítě zažívají masivní rozvoj a stále intenzivněji
proměňují celý obor ICT. Představují také platformu s ekonomicky největším potenciálem, který
začíná u obyčejných e-shopů a končí u pokročilých aplikací, rozšířené reality nebo zprávy zařízení.
Počítačovou síť přitom není možné vidět jen jako prostou infrastrukturu, i když i to je aspekt, který je
pro rozvoj informační společnosti i technologií velice důležitý. Síť umožňuje hromadné získávání dat,
zprostředkovává komunikaci mezi uzly a dokonce ji lze použít pro modelování mozkových struktur,
pro stavbu biologických či učících se algoritmů atp.
Následující část knihy bude zaměřená právě na sítě. Prvním tématem je IPv6, což je klíčový protokol
síťové vrstvy ISO-OSI modelu a který představuje důležitou komponentu pro budování moderních sítí
libovolného druhu. Podpora mobility či bezpečnosti, možnost snadné adresace a řada dalších novinek
bude vytvářet platformu, ze které budou čerpat (téměř) všechny aplikace.
Internet věcí, rozšířená realita i complex event procesing využívají internet a senzorické sítě k tomu,
aby dokázali nabídnout uživateli větší množství informací, než bylo doposud běžné. Jednotlivá
zařízení připojená do sítí budou stále méně ovládaná s lidmi a půjde o zařízení a senzory
nejrůznějšího charakteru. Také BYOD – tedy nošení vlastního zařízení do práce je spojeno
s metodami, které přímo souvisí se zprávou, zabezpečení a organisací sítí, i když ze zcela jiného
hlediska.
48
IPv6
Potřeba směrování a adresace je něčím, co je třeba v každém návrhu síťových protokolů mít velice
pečlivě ošetřeno. Původní protokol síťové vrstvy IPv4 byl navržen v situaci, která byla zcela jiná, než
ta dnešní. O mobilních zařízeních si člověk mohl nechat jen zdát a síť ARPANET tvořily (téměř)
výhradně počítače akademického a univerzitního sektoru. Požadavky na bezpečnost či množství
adres byly tedy minimální.
Počátkem 90. let se začal objevovat problém s tím, jak zajistit dostatečné množství adres pro zařízení,
jejichž počet se rychle zvyšoval. Podle tehdejších analýz měly čtyřkové adresy dojít asi do desíti let,
což představilo zcela novou výzvu pro tvůrce protokolu pod taktovkou IETF. IP je v zásadě jediný,
který funguje v jedné (či dvou verzích) na celém internetu, což otvírá cestu k zásadním inovacím,
který by umožnily rozvoj sítě ve zcela novém a širším kontextu. Myšlenka, že bude jen navýšen
adresní prostor, byla tak rychle zamítnuta a místo se objevila celá řada dalších požadavků, které by
měl nový protokol splňovat a zajišťovat. Především šlo o:
větší adresní prostor, který pokud možno nikdy nedojde;
tři druhy adres: individuální (unicast), skupinové (multicast) a výběrové (anycast);
jednotné adresní schéma pro Internet i vnitřní sítě;
bezpečnost a šifrování;
podpora pro garantovanou kvalitu služeb (QoS);
podpora vysokorychlostního směrování;
automatická konfigurace;
podpora mobility.
Dílčích cílů by se ale dalo najít ještě více. Již v roce 1995 se objevila první specifikace nového
protokolu IPv6, ale postupně se pracovalo na implementaci výše uvedených požadavků. Například
mobilita a její podpora stále není vyřešeným problémem. Mimo to se objevily technologie, jako je
NAT,76
které dokázaly (za cenu snížené přímočarosti a rychlosti) zpomalit nárůst počtu požadavků na
IPv4 adresy, takže v zásadě dochází až od roku 2012.77
IPv6 je tedy protokolem, který má ambice zásadním způsobem změnit fungování internetu směrem
k lepší práci s mobilními zařízeními, směrování, konfiguraci nebo bezpečnosti na úrovni síťové vrstvy
ISO OSI modelu.78
Přesto je dnes protokol šestkové řady z hlediska uživatelských a koncových zařízení
silně minoritní záležitostí.
76
TSIRTSIS, George. Network address translation-protocol translation (NAT-PT)
77
FILIP, Ondřej. Tak jsme na suchu!
78
VAŇKOVÁ , Jana , ČERNÝ, Michal. Úvod do počítačových sítí.
49
Hlavička paketu v IPv6.79
Soudobá technická praxe
První zcela zásadní inovací, kterou přináší nové verze Internet Protocol je rozsah adres. Zatímco IPv4
má k dispozici pouze asi 4x109
adres, její šestková kolegyně jich nabízí přibližně 3x1038
. Na první
pohled by mohlo jít o množství, které je zbytečně velké či přestřelené, tedy že přinejmenším hlavičky
paketů budou delší než by bylo nutné, což má konsekvence s nároky na směrovače a směrovací
tabulky. Důvodů pro takto vysoké číslo je celá řada.
Předně je třeba říci, že aby bylo možné efektivní směrování, nebude rozdělování adres příliš husté,
takže počet používaných adres bude o několik řádů nižší. Druhým důvodem je skutečnost, že v IPv6
sítích se počítá s tím, že bude mít jedno zařízení více IP adres, podle toho, v jakých sítích bude
aktuálně připojeno. Také to vytváří tlak na dostatečnou zásobu. A v neposlední řadě je třeba říci, že
se počítá s narůstajícím počtem zařízení, které budou těmito adresami disponovat – od inteligentních
spotřebičů v domácnostech, až třeba po hodinky, automobily nebo oblečení (wardrobe computers).80
IPv6 umožňuje nasazení senzorických sítí, které budou založené na klasickém IP a efektivní směrování
v nich bez obav, že by bylo plýtváno adresami. Zatímco doposud se většinou užívali speciální
protokoly pro směrování, tento krok může jejich užití velice zefektivnit a zjednodušit.
79
IPv6. Wikipedia.
80
WEAVER, John V. Architecture for Wireless communication and monitoring.
50
Jen takto definované rozšíření adresního prostoru může z hlediska toho, jak fungují počítačové sítě,
přinést nemalou revoluci, díky zcela novým možnostem směrování či snadné vzdálené komunikace
s konkrétními zařízeními. Významných novinek je ale v IPv6 více.
Předně je to podpora bezpečnosti, která byla dříve řešená buď ve vyšších vrstvách IOS-OSI
modelu, anebo pomocí nepovinného IPSec, který byl ale nepovinný. IPv6 přichází se dvěma
základními bezpečnostními nástroji s tím, že jeden je povinný a zaručuje autentizaci a druhý
nepovinný a slouží pro celkové zabezpečení paketu.
Prvkem, který je nutný v IPv6 používat, je hlavička AH (Authentication Header), která
umožňuje zaručit, že paket, který dostáváte, opravdu pochází od uvedeného odesilatele. Jde
tedy o autentizaci – není možné podvrhovat či modifikovat pakety, což je velmi užitečné, ale
stále to neznamená bezpečnost v tom smyslu, že komunikace je neveřejná.
To zajišťuje až druhý, volitelný prvek, který je hlavička ESP (Encapsulation Security Payload),
která slouží pro šifrování odchozího paketu, ochranu integrity, částečnou autentizaci a jako
ochrana před případným zopakováním. To v praxi znamená, že data nemohou být
odposlouchávána, podvržena ani jinak sledována. Vše funguje tak, že odchozí paket se obalí
ještě do ESP, a je tak v bezpečné „obálce“ dopraven až k příjemci.
Právě důraz na bezpečnost, která je integrovaná již na síťové vrstvě je vnímán jako jeden
z nejdůležitějších kroků od internetu akademického k všelidovému, komerčnímu. Další užitečnou
novinkou, která ale není plně specifikována (i když základní idea je jasná)je podpora mobility. V době,
kdy vznikalo IPv4, neexistovala potřeba řešit komunikaci s pohybujícím se uzlem, který – tak jak
přechází z jedné sítě do druhé – mění svou adresu.
Každá stanice má svůj domácí směrovač, který má neměnnou adresu a kterému hlásí svojí aktuální IP
adresu. Pokud s mobilním uzlem chce někdo komunikovat, může tak činit přes jeho domácí
směrovač, který měnící se adresy zná. Pokud není změna příliš dynamická, umožňuje podpora
mobility, aby komunikující uzly znaly své adresy a dorozumívaly se nepřímo, nikoli „oklikou“ přes
domovský směrovač. Tato změna umožňuje vývoj komunikačních aplikací či práci s datovými proudy
s podporou přímo v IP.
V tomto kontextu je velice důležité říci, že IPv6 nabízí podporu kvality služeb, což je opět zajímavá
novinka. IPv4 sice určitý pokus v této oblasti mělo, ale nikdy se reálně nezačal používat. Šlo tedy o
protokol, který se řídil zásadou best effort81
, což je ve chvíli, kdy potřebujeme pracovat například
s přenosem videa v reálném čase (pro komunikaci se přípustné zpoždění pod 0,2 sekundy) problém.
V IPv6 tak lze ke každému datagramu přiřadit prioritu a určit druh dat. Směrovače tato data
vyhodnocují a umožňují pak prioritní odbavení paketů, které spěchají na úkor těch, které mohou
počkat (třeba e-maily). Mimo to nabízí IPv6 ještě možnost efektivního směrování uvnitř určité podsítě
a to jasně definovanou cestou (samozřejmě s ošetřením pádu sítě) pomocí MPLS. Také to může
přispět k tomu, že se data prioritního charakteru dostanou na místo určení podstatně rychleji než v
klasické čistě best effort síti.
81
Tedy zásadou, že „kdo dřív přijde, ten dřív mele.“
51
S podporou mobility souvisí také další požadavek a tím je podpora automatické rychlé konfigurace
(nejlépe plug and play). Pokud má mít podpora mobility význam není možné, aby připojování se k síti
trvalo dlouho a byla k tomu potřeba činnost administrátora sítě. Z tohoto důvodu IPv6 nabízí dva
základní způsoby, jak se uzel může připojit k síti.
První je způsob známý z IPv4 a je nazýván stavová konfigurace a až na drobná vylepšení
nepřináší nic nového. Jedná se o konfiguraci prostřednictvím DHCPv6, počítač rozešle dotaz a
DHCP server mu v odpovědi sdělí vše, co by o zdejší síti měl vědět. Na základě těchto
informací se pak může připojit do sítě.
Novinkou je až druhá varianta zvaná bezstavová. Využívá dostatečné délky IPv6 adresy a
umožňuje zařízení připojit se do sítě i bez komunikace se směrovačem. Stačí mu k tomu
otázky po sousedech, které mu umožní ověřit si unikátnost své adresy (vzniklé z MAC adresy),
znalost toho, jak velké pakety je možné posílat a řady dalších věcí. V rámci bezstavové
konfigurace si počítač také vytvoří základ své směrovací tabulky, tedy seznam implicitních
směrovačů, kterým bude předávat pakety směřující mimo síť. Jedná se tedy o dobrý doplněk
(v IPv6 má jít dokonce o dominantní prvek konfigurace uzlu v síti) klasické stavové
konfigurace, který je užitečný jak pro snížení zátěže směrovačů, tak také pro podporu
mobility.82
Další příjemnou novinkou je zjednodušení hlavičky, která byla u IPv4 skutečně velká a značná
část parametrů se vůbec nepoužívala. Fragmentace již vytvořených paketů navíc není možná,
takže pomocí MTU musí směrovače zjistit maximální možnou velikost diagramu a podle toho
lze pakety dynamicky přizpůsobovat. Existují tak takzvané jumbogramy, jejichž velikost může
být až 4 GB. Cílem obou změn je snížení zátěže na směrovačích, které jsou kritickými místy
celé sítě.
Velká změna se týká také samotného druhu adres, které jsou v síti k dispozici. Ty jsou nyní tří
základních druhů. První jsou unicast adresy, které se vztahují ke konkrétnímu rozhraní či zařízení.
Zásadní novinkou jsou anycast adresy, které umožňují adresovat (dle rozhodnutí směrovače), některý
z množiny vybraných rozhraní. Může jít například o nejméně zatížený server atp. Poslední variantou
adres je multicast, který adresuje celou skupinu počítačů.
IPv6 samozřejmě přináší celou řadu dalších dílčích změn, které ale již jen vyvstávají ze skutečnosti její
existence. Příkladem jsou nové verze směrovacích protokolů, které musí počítat jednak s větší délkou
adres, ale také s některými jejich specifiky. Nové požadavky jsou kladeny na směrovače, které musí
nejen zpravovat tabulky, ale také kontrolovat zda nejde o paket s hop limit (náhrada za TTL u IPv4)
rovným nule, ošetřit zajištění QoS či směrování uvnitř autonomních oblastí pomocí předdefinovaných
cest. Jeden z důvodů, proč se nový protokol šíří tak pomalu, jsou právě nároky na tato kritická
zařízení pro chod celé sítě. Dále bychom mohli zmínit AAAA záznamy v DNS serverech, které
nahrazují A čtvrtinové délky.
V současné době je IPv6 již zcela použitelný (a dokonce používaný) protokol, který si získává postupně
stále větší oblibu. Řeší řadu problémů, které se musely ošetřovat na vyšších vrstvách, což vedlo
k tomu, že nešlo o homogenní a transparentní řešení. Přítomnost těchto funkcionalit na síťové vrstvě
82
HUSTON, Geoff a George MICHAELSON. Counting DNSSEC.
52
je tak jednoznačným přínosem. To ale neznamená, že by celý protokol byl jako celek již dokonale
popsán. Stále se řeší drobnosti ohledně podpory mobility a jednotlivých technických detailů, což
snižuje možnosti efektivnější a jednodušší implementace celého systému.
Na úrovni operační systémů je IPv6 podporováno například v BSD (jako jeden z prvních operačních
systémů díky projektu KAME). U Windows se objevovaly pokusy již od Windows NT, ale první funkční
oficiální podpora byla až u Service Pack 1 pro Windows XP, u serverových edic Windows Server 2003.
Kvalitní podporu nalezneme ale až u Windows Vista. U Linuxu se poprvé objevila jako experiemntální
funkce v jádře s označením 2.1.8 v roce 1998, finální a oficiální podpora je ale až od roku 2005 v jádře
2.6.12.83
Silné stránky a možnosti
V současné době se prostřednictvím IPv6 provozu realizuje asi 60 % síťového provozu a je
podporován všemi velkými hráči na internetovém trhu jako je Facebook či Google. Z tohoto úhlu
pohledu lze říci, že zatímco přenos velkých dat, směrování mezi doménami a řada dalších
náročnějších aplikací již v IPv6 funguje, uživatelé si k němu cestu zatím příliš nenašli a vývojáři mají
jen omezenou skupinu lidí, kterým by mohli dodávat služby a aplikace, které si šestkovou verzí poradí
a bude pro ně přínosná.84
Před pracovní skupinou IPv6 IETF tak stojí zcela zásadní úkol v podobě dotažení chybějících RFC
dokumentů, které by specifikovaly zbývající nepříliš dobře popsanou oblast, především pak podporu
mobility. Až v tom okamžiku lze očekávat masivnější rozšíření uživatelských nástrojů, které by
vyžadovaly IPv6. Právě v mobilních zařízeních je totiž do velké míry budoucnost celého Internetu,
především s ohledem na jejich rostoucí počet, výkon a ekonomický význam.
Je zřejmé, že nástup IPv6 může mít relativně silný dopad především na bezpečnost, což je dnes jedna
z klíčových oblastí vývoje jako takového. Zatímco dnes je třeba věnovat náležitou péči ošetření všech
streamů a případně užívat hotové frameworky, které nemusí vždy všem vyhovovat, nová verze IP
protokolu může bezpečnou komunikaci zajistit relativně rychle a snadno.
Druhou velkou oblastí bude podpora multimédií, u kterých je možné vyžadovat zajištění QoS v takové
míře, že bude možné snadno realizovat videokonference s velkým počtem účastníků ve vysoké
kvalitě. Především v oblasti synchronizace a nároků na přenos v reálném čase může mít IPv6 pozitivní
vliv. Velká je perspektiva také podpory mobility, ať již v absenci nutnosti neustále iniciovat bezpečné
spojení nebo právě v jejím spojení s multimediálními přenosy.85
Jestliže se dnes postupně rozvíjí koncept inteligentních domácností, který je budován jen na třech
nejvyšších vrstvách ISO-OSI modelu, tak IPv6 jim dá zcela nové efektivní možnosti a umožní jejich
další rozvoj – ať již díky snazší adresaci, bezpečnosti či směrování. Protokol IPv6 se postará o celou
řadu úkonů, které by jinak musel dělat levný a nepříliš výkonný čip se speciálním operačním
83
Další podrobnosti o konkrétních vlastnostech a podpoře IPv6 lze získat na webu ipv6.cz, případně v knize
SATRAPA, Pavel. IPv6: internetový protokol verze 6.
84
Cisco IPv6 Lab: IPv6 Deployment.
85
CHIRUVOLU, Girish; AGRAWAL, Anshul; VANDENHOUTE, Marc. Mobility and QoS support for IPv6-based realtime
wireless Internet traffic.
53
systémem. Vývojářům by se tak v této oblasti měly rychle uvolnit ruce k další tvorbě a prohlubování
tohoto konceptu.
Poměrně zajímavou novinkou, kterou nabízí IPv6, je mechanismus mapování prefixů, který
lze velice dobře použít pro práci v lokálních sítích, nebo obecněji pro end to end řešení.
Veřejný prefix je namapován na prefix stejné délky na privátních ULA adresách. Díky tomu
lze izolovat vnitřní strukturu sítě od vnějšího světa.
Podpora multihomingu, tedy možnosti mít více směrovačů, které označujeme za domovské
(viz podpora mobility) na tuto problematiku přímo navazuje. Díky těmto změnám, lze
budovat zajímavé aplikace, které budou pracovat jen jako intranetové a přitom současně
může zařízení bez potíží komunikovat s dalšími směrovači.
V současné době je již téměř nezbytné se aktivně podporou IPv6 zabývat především v kontextu
náročných aplikací, kde dochází k přenosu velkého množství dat a je žádoucí mít k dispozici nástroje
na řízení provozu či adresaci výběrovou (anycast). V takovém případě je zřejmé, že jsou možnosti,
které tento protokol nabízí mnohem výhodnější a výkonnější. Ostatně to jsou také důvody, proč se již
téměř veškeré „velké směrování“ (například mezi autonomními systémy) děje pomocí protokolů,
které IPv6 přímo podporují.
Také pokud potřebujeme vytvořit síť, ve které budou podporována multimédia a zajištěna kvalita
služeb, lze jen obtížně předpokládat, že se tyto problémy podaří zajistit protokoly vyšších vrstev, ať již
pomocí speciálních modifikací vysokorychlostních TCP či na úrovni aplikační. Právě možnosti
efektivního využívání předdefinovaných cest jsou další z významných inovací, které z hlediska
uživatelského komfortu IPv6 nabízí.
Dnes je již zřejmé, že otázka (přes všechny NAT a podobné technologie) nestojí tak, zda dáme
přednost konzervativní IPv4 či progresivní šestkové variantě, ale kdy bude přechod na úrovni
uživatelů masivní a dominantní. Nové možnosti jsou podstatně slibnější, než jen větší adresní prostor
a mělo by být v zájmu vývojářů nejrůznějších aplikací, aby se do oblasti propagace IPv6 pustili
intenzivně. Otevírá jim totiž nové možnosti a šanci k řešení problémů přistupovat novým a efektivním
způsobem. A to může být jeden z rozhodujících prvků strategického náskoku před konkurencí.
Z globálního hlediska je pak zavedení IPv6 zcela klíčové pro efektivní směrování, takže se bez něj
internet v žádném případě neobejde.
Slabé stránky a možné problémy
To co jsme výše popsali, může možná působit téměř idylickým dojmem. Protokol je až na nějaké dílčí
drobnosti téměř hotový, připravený k implementaci a pomůže vyřešit celou řadu závažných
problémů, se kterými se současný internet potýká. Ale právě chybějící přesná specifikace na úrovni
RFC dokumentů je jedním z prvků, který nástup IPv6 brzdí.
Dalším problémem, o kterém se příliš nemluví, je podpora na úrovni operačních systémů. Zatímco
v případě BSD či Linuxu není problém, u Windows byla situace horší. Windows XP díky SP měli
podporu protokolu implementovanou, ale bylo nutné ji relativně složitě ručně konfigurovat.
Vzhledem k tomu, kolik existuje stále počítačů s Windows XP je zřejmé, že tito uživatelé v drtivé
většině služeb IPv6 nebudou moci nijak využívat. Takto omezená množina potenciálních uživatelů (u
54
Vista, Windows 7 a 8 již problémy nejsou a protokol je plně aktivně podporován) snižuje možnosti
vývoje služeb a jejich monetizaci.
To samozřejmě vede k cyklickému problému – jestliže neexistují uživatelé, kteří by mohli služby
využívat, nevyplácí se je programovat. Pokud nejsou aplikace, mají uživatelé jen minimální motivaci
přecházet na nový protokol a tak stále dokola. Tím se také snižuje snaha poskytovatelů připojení, aby
pořizovali nové směrovače a více podporovali IPv6 z hlediska infrastruktury. Takto vzniká složitá
situace, ve které se koncoví uživatelé, díky své přirozené pasivitě nedostávají ke kvalitním šestkovým
službám sítě.
Bez potíží není ani přechod na úrovni směrovačů a aplikací. Potřebujeme vytvořit nějaký
mechanismus, který by zajistil převod adres v4 na v6 a naopak, aby nevznikly dvě autonomní,
vzájemně nekompatibilní sítě. Existuje několik možností, ale žádná není samozřejmě bez potíží.
Historická zkušenost také ukazuje, že snaha o kompatibilitu za každou cenu je sice dobrá z hlediska
krátkodobého profitu a migrace uživatelů, ale nese s sebou také celou řadu rizik a problémů.86
Nejelementárnější řešení, které si lze představit, je duální zásobník. Jedná se o poměrně
naivní řešení – máme IPv4 síť a uzlům, které mají tu potřebu, přiřadíme také IPv6 adresu.
Směrovače a sítě se pak postarají o to, aby všechny pakety docházely na obě adresy. To s
sebou nese řadu nevýhod – směrovače musí udržovat dvakrát větší tabulky, všechny
směrovací algoritmy musí být vytvořené dvakrát a programy mají problémy se vzájemnou
komunikací. Navíc se není možné spolehnout na funkce, které IPv6 přináší navíc. Jde tedy
řešení, které umožňuje funkčnost sítě, ale neřeší žádný z problémů IPv4.
Druhou možností je tunelování. Tato technika se používá ve chvíli, kdy potřebujeme propojit
dvě sítě (nebo uzly), které pracují v jedné verzi protokolu prostřednictvím sítě, jenž pracuje
ve verzi druhé. Nadefinujeme dva výstupní body, které slouží jako paty mostu a ty budou
každý příchozí paket obalovat příslušnou hlavičkou, respektive přídavné hlavičky odstraňovat
na druhé straně. Problémem jsou nároky na tyto vybrané uzly a také bezpečnost. Není zde
ale ani garance dalších služeb (podpora QoS například).
Teoreticky se nejlépe jeví možnost využít překladačů. Nabízí možnost překládat IPv6 adresu
na IPv4 a naopak stejně jako u tunelování. Jednotlivé uzly tak nemusí vůbec vědět, že
komunikují s jinou sítí. V ideálním stavu už měl veškerý IPv4 obsah i svou 6to4 IPv6 adresu s
prefixem 2002:IPAD:RESA::/48.87
K jedné IPv4 adrese tak existuje celý blok IPv6 adres.
Nevýhodou opět je, že se nemůžeme spolehnout vždy na podporu služeb IPv6 a především
nezájmem ISP, kteří podobné bloky neudělují. Nevýhodou také je plýtvání adresním
prostorem.
V neposlední řadě je možné se zmínit o nutnosti používat příslušný hardware ve směrovačích a
dalších síťových zařízeních, což může být spojeno jak s obtížemi technického charakteru, tak také
s ekonomickými náklady.
86
YORK, Dan. Migrating applications to IPv6.
87
SATRAPA, Pavel. IPv6: internetový protokol verze 6. Str. 55-91.
55
Aktuální projekty
Podle statistik CZ.NIC laboratoří má AAAA záznam 13,49 procenta domén v .cz zóně. To znamená, že
takové procento webů je v českém doménovém prostoru připraveno na běh pod IPv6. Pro porovnání
se světem je možné říci, že ve světě je mezi TOP 500 stránkami jen asi 7 % podíl těch s AAAA
záznamem.88
Český ISP Telefonica nabízí všem svým stávajícím zákazníkům IPv6 adresu a současně již prodává jen
routery a modemy, které mají přímou podporu IPv6. Objem dat, která na internetu proteče přes IPv6
je asi 60% a účastní se jej ale jen 1% uživatelů.89
Česká republika patří mezi deset států s největší
podporou IPv6, takže prostředí pro český business je v tomto ohledu velice příznivé. Ostatně v této
oblasti se silně angažuje také akademická sféra a její CESNET. Naopak na Slovensku je situace
podstatně horší a za vzrůstajícím počtem serverů, které podporují IPv6 stojí především české
projekty, které jsou v této zemi hojně navštěvované jako je Seznam či Centrum. Podobně jiní velcí
hráči, jako je Google či Facebook mohou stát za velkými nárůsty v řadě menších internetových
ekonomik.
Z hlediska softwaru je třeba říci, že aplikace musí pro ukládání adres používat větší datové struktury
než pro IPv4 a současně je potřeba počítat s tím, že k jednomu doménovému jménu DNS typicky vrátí
seznam adres. Jedno rozhraní může mít také více adres, mezi kterými je třeba vybírat. Na druhou
stranu stabilní a osvědčené protokoly a nástroje vyšších vrstev ISO-OSI modelu (SMTP, FTP, SSH či
WWW) již dlouho tuto verzi podporují. Podobně velká část vývojových prostředí, která jsou novějšího
data, již podporu tohoto prostředí mají zabudovanou, takže ani z vývojářského hlediska by neměl být
žádný velký problém.
88
PRŮŠA, Jiří. IPv6 v Česku měsíc po „dni D“.
89
PETERKA, Jiří. Telefónica nasazuje IPv6 na svém xDSL.
56
Internet věcí
Internet věcí je již relativně starý koncept, ale až v posledních několika málo letech se o něm začíná
více mluvit. Vychází z relativně jednoduché myšlenky – zatímco současný internet je tvořen z 99 %
navzájem komunikujícími počítači, tak v budoucnu by do sítě mohla být zapojena další zařízení, která
počítač v té či oné podobě obsahují také. Může jít o automobily, ledničky, hodinky nebo třeba chytré
domácnosti a senzorické sítě.
Internet věcí je tedy koncept internetu, v rámci kterého je většina komunikace realizována stroji,
které jsou nepočítačového typu a většinou bez přímého zásahu člověka. Takto koncipované sítě mají
potenciál zásadním způsobem změnit jak naše poznání o světě, tak také například dopravu, život lidí
nebo podobu toho, jak vypadá běžné fungování domácnosti. Cílem těchto technologií má být
primárně vytvoření synergického spojení dílčích informací a zařízení, které povede jak k lepším
ekonomickým či logistickým výsledkům, tak také k nárůstu kvality života a životní úrovně.
Je přitom třeba zdůraznit, že internet věcí neznamená přístup na internet prostřednictvím nějakého
zařízení, ale více méně automatickou komunikaci zařízení se sítí. Není třeba žádného terminálu,
klávesnice nebo něčeho podobného. Samotným pojmem věci se mají na mysli všechna zařízení, která
obsahují či potenciálně mohou obsahovat počítač. V podstatě tak bude internet věcí do velké míry
závislý na bezdrátovém, často mobilním, přístupu k síti, neboť velká část těchto předmětů může být
snadno přenášena či přemísťována (jako například běžecké boty nebo příbor).
Internet věcí by měl být technologií, která přidá těmto zařízením zcela nový rozměr funkcionality.
Příbor nebude již jen k přímé konzumaci potravin, ale bude umět počítat kalorie, boty zaznamenávají
trasu a rychlost běhu, hodinky tep a z výsledných dat může patřičný program řídit životosprávu
člověka, který chce zhubnout nebo za půl roku běžet maraton. Možností využití je ale samozřejmě
více a jde o komplex služeb, pro jejichž rozvoj budou nezbytné zásahy do (téměř) všech protokolů na
jednotlivých vrstvách ISO-OSI modelu.
57
Předpokládaný vývoj internetu věcí.90
Současná technická praxe
Ač na internet věcí v roce 2013 připadá pouhé jedno procento objemu přenesených dat na internetu,
tak podle společnosti Cisco generuje obrat asi 613 miliard dolarů.91
Jeho podíl rychle roste a s ním i
poptávka po technologiích na nejrůznější úrovni, které by jej uměly efektivně využívat. Zatímco velká
část opravdového internetu věcí – tedy zařízení běžných potřeb – zůstává ležet ladem, největší podíl
na obratu mají robustní systémy pro správu logistiky a výroby.
Jestliže se hovoří o internetu M2M, tak jde o podmnožinu internetu věcí, která obsahuje právě velká
výrobní zařízení, jako jsou stroje, velká překládací a dopravní zařízení atp. Ta už dnes bývají často
doplňována senzorickými sítěmi, které jejich možnosti podstatně rozšiřují. Příkladem může být
přístav v německém Hamburku, který má tímto konceptem řešený nejen výklad a náklad lodí, ale
také celý pohyb zboží a personálu po docích. Díky těmto sítím lze celý přístav dokonale řídit a zvýšit
jeho výkon, aniž by bylo třeba stavět nové budovy či rozšiřovat přístaviště.92
Stačí optimalizovat
stávající stav, k čemuž se kombinace klasických zařízení a senzorických sítí propojených do jednoho
celku výborně hodí.
Již v úvodu jsme řekli, že celý koncept internetu věcí si bude vyžadovat úpravu ISO-OSI modelu ve
všech úrovních, respektive nové protokoly implementující funkcionality jednotlivých vrstev. Na první
pohled největším problémem může být nedostatek IP adres a absence podpory mobility uzlů v rámci
sítě, tedy to, co je třeba řešit na úrovni síťové vrstvy. Oba problémy řeší přechod do IPv4 k IPv6, i když
s různou mírou úspěchu. Pokud jde o adresy, tak těch je rámci šestkového protokolu skutečně
90
Internet of Things. Wikipedia.
91
SALÁK, Jan. Internet věcí bude bilionový byznys. I pro české firmy.
92
MAGYAR, Judith. The Ubiquitous Internet of Things: Managing Cities the Smart Way.
58
dostatek a není nutné mít obavy, že masivní rozšíření podobných sítí by znamenalo jejich vyčerpání
(3.4×1038
unikátních adres je dostatečný prostor).
Druhým problémem síťové vrstvy je zajištění mobility. Zde je třeba říci, že se s touto funkcí v IPv6
počítá,93
ale výsledná specifikace není stále hotová. Existuje tak idea bez finálního praktického řešení,
což může být pro internet věcí velice nepraktické. Často to vede k nutnosti buď částečného offline
režimu (boty zašlou všechny informace, až jsou doma) nebo využívání velkých sítí (například
mobilních).
Další úpravy budou nutné také na úrovni spojové vrstvy, která u klasického M2M nepředstavuje
žádný problém. Velká část zařízení bude odkázána na mobilní baterii, takže kritickým místem
internetu věcí může být spotřeba. Dnes již existují řešení jako je Bluetooth, které umožňuje budovat
sítě s malou spotřebou, zvláště pokud nedochází k aktivnímu přenosu dat, ale jen ke stavovému
hlášení.94
Lze ale očekávat, že nejrůznější protokoly, budou pro různé třídy zařízení řešit tento
problém různě, což lze vnímat na jedné straně jako výzvu, ale také jako hrozbu.
Pochopitelné jsou pak úpravy v horních třech vrstvách tak, aby dokonale odpovídaly možnostem a
potřebám, které budou s provozem internetu věcí spojené. Opět lze očekávat akcent na podporu
zařízení s nižší spotřebou, občasným provozem a nepříliš velkým výkonem. Internet věcí samozřejmě
může existovat také v mantinelech stávajících sítí a to včetně kritického IPv4 protokolu, jen nejsou
přenosy dat řešeny tak efektivně, jak by mohly být.
Z hlediska systému zařízení je možné identifikovat několik skupin. První tvoří skutečně malé
předměty s jednoduchým, často jednoúčelovým operačním systémem, který zvládá jen velice
omezenou množinu úkolů. Procesor je málo výkonný a paměť malá. Pokud chceme provádět nějaké
aplikace s tímto typem zařízení, je třeba mít na paměti, že výpočetní nároky je nutné delegovat
někam jinam. Druhou skupinou jsou větší přístroje, které v sobě mohou mít klasický operační systém,
který je doplněný jen změněným grafickým rozhraním a patřičnými moduly.
Společnost Canonical Ltd, která stojí za vývojem nejpopulárnější desktopové linuxové distribuce
Ubuntu přišla s nápadem, že by ráda svůj systém ve stejné variantě umísťovala do různých zařízení –
dnes je podporována televize, mobilní telefon či desktop a tablet, ale měl by k nim přibýt automobil a
další podobná větší zařízení. To dává vývojářům snadnou možnost rychle a jednoduše vyvíjet
aplikace, které budou moci užívat všechna zařízení, nejen konkrétní typ, pro který často není
k dispozici žádné rozumné vývojové rozhraní.95
Tím, jak bude stále více zařízení přistupovat do sítě, poroste potřeba je vzájemným způsobem
propojit tak, aby je bylo možné smysluplně využívat. Zřejmě nejjednodušší a nejslibnější cestou v této
oblasti je cloud, který poskytne snadný přenos dat mezi jednotlivými „věcmi“ a navíc je schopen
garantovat také určitou podporu v oblasti výpočetní síly. Velká část současných finančních
prostředků, které připadají na internet věcí je koncentrována právě v cloudových službách, které mu
zajišťují provázanost a faktickou podporu. A nelze očekávat, že by se na této situaci mělo něco
v budoucnu měnit.
93
Viz předchozí kapitola o IPv6.
94
LINDE, Joakim; TUCKER, Brian J. DATA TRANSFER USING THE BLUETOOTH LOW ENERGY STANDARD.
95
ČERNÝ, Michal. Ubuntu se zásadně změní. Je důvodem prodej?
59
Z hlediska praktické implementace lze identifikovat dva hlavní proudy, kterými se dnešní internet věcí
ubírá. První je identifikace věcí a prostá výměna dat. Může jít o přiložení hodinek ke snímači, ze
kterých se odečte čas, který člověk strávil v práci nebo dráha, kterou nachodil a řada dalších
informací. To lze zajistit relativně velice jednoduše. Buď cestou pasivního přístupu přes nejrůznější
varianty QR kódů a dalších záznamových médií,96
nebo aktivně pomocí NFC,97
což je dnes zřejmě
dominantní, rychlé a bezpečné řešení.
Druhým problémem je propojení věcí a zajištění jejich spolupráce. Zde se již dostáváme k nutnosti
tvorby zmíněných sítí většího rozsahu, pokročilého směrování atp. Zatímco o konkrétních formách
práce prvního proudu existují zcela konkrétní představy, tak v druhém případě je k dispozici mnohem
větší prostor pro kreativitu nejen na úrovni aplikací, ale také v nižších vrstvách ISO-OSI modelu, což je
relativně výjimečná příležitost.
Samostatným tématem jsou pak senzorické sítě, které koncept málo výkonných zařízené s minimální
možnou spotřebou ženou do extrémů. Speciální směrovací algoritmy, které se dnes běžně využívají,
budou moci být díky IPv6 upraveny a senzory budou moci být plnohodnotnou součástí internetu, což
opět otevírá možnosti pro jejich masivní využití nejrůznějším způsobem.
Návaznost na další technologie
Mimo zmíněnou návaznost na síťové technologie, které s internetem věcí bytostně souvisí, lze zmínit
například big data. Jestliže poroste podíl internetu věcí, rozhodně to nebude na úkor dalšího provozu,
ale poroste objem v absolutní hodnotě. Takto vytvořená data bude třeba nějakým způsobem
zpracovávat a analyzovat. Lze tak očekávat nejrůznější distribuované cloudové služby, které by
umožnily takto získané obrovské objemy dat nějakým způsobem zpracovávat a dále využívat.
Jestliže půjde o systémy uvnitř velkých organizací, jako jsou výše uvedené doky v Hamburku, bude
důležitou cestou podpora vlastní firemní infrastruktury, což implikuje návaznost na virtualizaci a
opětovný big data problém – ať již jde o dlouhodobé analýzy, uchovávání dat či jejich zabezpečení. To
vše bude třeba velice pečlivě a systematicky řešit.
Důležitá bude také návaznost na Complex event processing systémy,98
které mají využívat komplexní
dat pro rozhodovací procesy. Jsou to právě senzorické sítě nebo internet věcí, které umožňují získat
mnohem podrobnější představu o tom, jaký je stav sledovaného objektu než jaké nabízejí klasická
řešení. Například díky řadě čidel a dalších zařízení lze sledovat nejen nákupní vzorce lidí, ale také
jejich závislost na teplotě nebo emocionálním stavu kupujících.
Zmínit lze jistě také návaznost na počítačové zpracování emocí. Jestliže budou zařízení schopná
detekovat emoce jejich uživatele, nejen, že se mu budou moci přizpůsobit, ale mohou jeho komfort
dopředu zajistit - což platí například u inteligentních domácností – nebo s ním jiným způsobem
pracovat.
96
Podrobněji WINTER, Mick. Scan me: everybody's guide to the magical world of QR codes-- barcodes, mobile
devices and hyperlinking the real to the virtual.
97
SEO, Yoon Deuk; AHN, Jin Ho. Efficient NFC Tagging Pattern-Based Contents Recommendation for Museum
Viewers.
98
Viz kapitola Complex event. processing.
60
Silné stránky a možnosti
Některé silné stránky internetu věcí jsme již výše naznačili. Prvním pozitivem může být optimalizace
procesů a podpora pro manažerské techniky jako je lean management či TQM. Díky přesnému
přehledu o tom, jak se jednotlivé objekty pohybují, jakou vykonávají činnost a co se s nimi děje lze
velice účinně pracovat na plánování tak, aby se dokonale využívalo zdrojů, což má zřejmý pozitivní
ekonomický dopad.99
Příkladem typického využití internetu věcí pro optimalizaci může být Energomonitor, za kterým stojí
Patrick Zandl. Jde o zařízení, které měří spotřebu elektrické energie a data posílá na internet. Nad
tímto fyzickým zařízením je patřičné uživatelské rozhraní, které umožňuje identifikovat profil
spotřeby elektrické energie a podle něj upravit své chování. Podle spotřeby a jeho profilu umí systém
navrhnout změnu dodavatele, optimální tarif nebo navrhnout ideální čas pro spínání spotřebičů
s velkou spotřebou.
Tento příklad je pro internet věcí mimořádně signifikantní, protože ukazuje synergii mezi fyzickými
zařízeními a jejich softwarovou nástavbou, která může mít vliv na chování samotných lidí. Jedním
z důležitých momentů je obecná snaha o zlepšení životní úrovně uživatelů. Velká část typického
internetu věcí směřuje právě k tomu, aby se lidem žilo lépe – od podpory a analýzy sportovních
aktivit, až po chytré domácnosti. Právě koncový uživatelé představují jednu z velice zajímavých
cílových skupin, protože – především v západním světě – stále roste důraz na zdravý a kvalitní životní
styl.
Nejrůznější boty, které měří vzdálenost a rychlost běhu patří mezi velice populární zboží a lze je
zmínit také v kontextu tématem Quantified self.100
Jde o hnutí či fenomén zaznamenávání dat o sobě
samých a jejich následné zpracování. Nejčastěji se hovoří o jejich využití v oblasti medicíny
(optimalizace životního stylu, diety, chování pacienta, identifikace stresu atp.), ale také můžeme
hovořit o masivním nárůstu sdílení těchto informací a jejich diskusi v rámci internetového prostředí.
Tak lze například získávat zpětnou vazbu na své běžecké pokroky od komunity, cenné rady nebo se
jen chlubit.
Zajímavou možností bude do budoucna hledání protokolu, který by zajistil jednotnou
komunikaci zařízení mezi sebou. Dnes se hojně užívá pro jednodušší zařízení RFID (Radio
Frequency Identification Device),101
která umožňuje třeba snadné sledování pohybu objektů a
jejich tras. Užívá se třeba u digitálního mýta, ochrany majetku či pro elektronické klíče.
Technologie stojí od fyzické vrstvy až po spojovou, což je výhodné z hlediska snadného
návrhu specializovaných zařízení pro internet věcí. Na druhou stranu zajímavý protokol pro
propojení a sdílení dat náročnějších aplikací Android@home, který měl propojit všechna
zařízení do jednoho komunikačního bodu s Androidem, nevyšel. Hledání pokročilejších a
robustnějších protokolů, než je zmíněné RFID, tak bude zřejmě pokračovat.
99
HARRIS, Frank; MCCAFFER, Ronald. Modern construction management.
100
SWAN, Melanie . Sensor mania! The Internet of Things, wearable computing, objective metrics, and the
Quantified Self 2.0
101
Podrobněji o zmíněné technologii například v SMITH, Joshua R. (ed.). Wirelessly powered sensor
networks and computational RFID.
61
Internet věcí může zajistit velice dobré prostředí pro tvorbu osobního technologického ekosystému,
zvláště pokud bude spojen se systémy pro zpracování emocí. Tablet může zaslat informaci
inteligentní domácnosti, že uživatel bude za pět minut doma, že je mu zima a má špatnou náladu. Pro
navazující systémy pak je již snadné zvýšit teplotu topení, uvařit čaj nebo pustit příslušnou hudbu.
Stále větší integrace jednotlivých zařízení do gridů bude mít za následek rostoucí komfort lidí, kteří je
budou používat.
Internet věcí představuje společně s big data jednu z největších výzev, před kterou současný internet
stojí. Možnosti, které se nabízejí z hlediska medicínských technologií, ale také optimalizace procesů,
řízení dopravy (semafory analyzující aktuální dopravní situaci mohou silně pomoci omezit kolony
nebo podpořit plánování nových tras), energetiky a dalších oblastí. Do sítě se budou zapojovat
zařízení, jejichž potenciál zůstává dnes nevyužit a bude záležet jen na fantazii a kreativitě tvůrců, jak
jej budou schopni využít. Již jednou zmiňovaný Patrick Zandl k tomu trefně dodává, že pokud někoho
mrzí, že nebyl u vzniku klasického webu, má šanci se účastnit další revoluce – ta nese jména big data
a internet věcí.102
Slabé stránky a možné problémy
Prvním problémem, na který bude internet věcí narážet je bezpečnost, což je téma, které bude
s rozvojem těchto sítí stále důležitější. Řada antivirových firem již dává jasně najevo, že po rozvoji
antivirových systémů pro mobilní telefony jsou na řadě ty, které by ochránily ledničky, pračky nebo
třeba právě automobily.
Příklady zneužití mohou být velice pestré – od čistě destruktivních, jak je zmatení rychlostních radarů
v automobilech, které mají hlídat vzdálenost od vepředu jedoucího vozidla tak, že auto se stane
nebezpečné, nepojízdné nebo dokonce způsobí havárii, až po podstatně rafinovanější ekonomicky
orientované útoky. Bezpečnost tak představuje jeden z nejvážnějších problémů, se kterými se bude
muset internet věcí nějakým způsobem vypořádat a rozhodně to nebude zadarmo. Přinejmenším
v ohledu na požadavky procesoru a pamětí mohou antivirové a bezpečnostní systémy znamenat
vážný ekonomický problém, který zpomalí celý proces rozvoje internetu věcí. Na druhou stranu ale
představují skvělou příležitost pro vývojáře bezpečnostního softwaru nebo návrháře bezpečnostních
strategií a systémů.
S tím úzce souvisí druhý problém, tedy spotřeba. Nejčastěji užívané technologie pro provozu
senzorických sítí či internetu věcí, jako jsou ZigBee, Bluetooth, NFC či RFID nějakým způsobem
spotřebu energie sice řeší, ale nejde o uspokojivé varianty. Lze minimalizovat spotřebu ve stavu, kdy
je dané zařízení neaktivní (sluchátko handsfree sady, když se zrovna netelefonuje), ale v případě
pravidelného či permanentního provozu je zde problém. Cesty k řešení jsou různé – od bezdrátového
nabíjení, přes optimalizaci čipů a zařízení tak, aby měly co možná nejnižší spotřebu, až po vývoj
baterií.
Samozřejmě existují i zajímavá alternativní řešení, jako je využívání energie z rostlin, malé solární
články či transformace kinetické energie na elektrickou daná okolním působením (příkladem je
natahování hodinek při běžném pohybu rukou za chůze). Malá výdrž zařízení, respektive velká
spotřeba výkonnějších „věcí“ může internet věcí nepříjemně redukovat na zařízení velká či
stacionární, pro které není nedostatek elektrické energie tak problematický.
102
ZANDL, Patrick. Chcete změnit svět? Věnujte pozornost Internetu věcí a Velkým datům.
62
To má také ekologický rozměr – nárůst zařízení, která spotřebovávají elektrickou energii, mohou mít
za následek negativní dopad na životní prostředí, především v oblastech, které využívají fosilních
paliv. Nejde přitom ale jen o samotnou spotřebu v oblasti fungování takových zařízení, ale také o
ekologickou likvidaci nebo zdroje potřebné na jejich výrobu. Jestliže budou ve všech botách,
vidličkách či oblečení běžně čipy, nelze se vyhnout otázce po ekologické udržitelnosti takové
technologie a to i přesto, že řada „věcí“ může díky optimalizaci životní prostředí chránit.
Problémem, který je nutné zmínit také, je zásah do soukromí. Jestliže je v západním světě vnímáno
soukromí jako hodnota, která má přímý vliv na demokracii a svobodu,103
tak lze očekávat problémy
v přijetí těchto technologií širší veřejností, která si začne uvědomovat, že neustálé zasílání dat o tom,
co dělají, jak se cítí nebo kde se pohybují, je relativně snadno zneužitelné. Nedávné problémy se
zneužíváním dat bezpečnostními složkami v USA může vyvolávat otázky, zda nepovede rozvoj
internetu věcí k podpoře omezování soukromí, špehování nebo dokonce zda nebude složit jako
ideální nástroj pro podporu totalitních režimů.
Výše zmíněné hnutí Quantified self rozhodně není v tomto kontextu bezproblémové a může
posloužit jak ke sledování občanů státem, tak také k analýze toho, kde se pohybují děti či partner, co
dělají atp. Jde o jedno z klíčových úskalí, se kterými se bude muset internet věcí vyrovnat na úrovni
sociálního a etického rozměru této služby. Podobně lze očekávat, že bude existovat stále početnější
skupina lidí, kteří budou závislost na výpočetní technice vnímat jako negativní a budou ji chtít ze
svého života zcela vytěsnit.
Aktuální projekty
Již výše jsme zmínili celou řadu zajímavých aplikací, jako je Energomonitor či systém řízení přístavu
v Hamburku. Existuje však velké množství dalších užitečných aplikací tohoto konceptu, z nichž možná
nejpopulárnější je vidlička od společnosti HAPILABS, která dokáže rozpoznat, jak rychle člověk jí, a
pokud to dělá moc rychle, začne vibrovat. Vychází přitom z faktu, že člověk se nasytí i relativně
malým množstvím jídla až za 20 minut. Díky spojení s mobilním telefonem lze s vidličkou vytvářet
speciální hubnoucí plány a zkoumat své konzumní statistiky.
Dalším příkladem zařízení, která budou stále rozšířenější, je náramek Flex, který slouží jako krokoměr,
měřič pulsu, spálených kalorií či kvality spánku. Vše umožňuje v reálném čase zobrazovat v mobilním
telefonu. Samozřejmostí je možnost nastavení si osobních plánů na aktivitu, kterou má člověk
vykonat. Podobná zařízení, která umožňují měřit tep, puls či teplotu jsou jednou z budoucností
odvětví internetu věcí.104
Internet věcí lze realizovat také pomocí již fungujících zařízení, která se vhodným způsobem využijí.
Příkladem může být aplikace Sleep as Android,105
která slouží pro monitorování spánku klasickým
telefonem, který si nechá člověk zapnutý vedle hlavy, s tím, že telefon pak sám optimalizuje dobu
buzení. Podobně lze třeba měřit puls. Spojení internetu věcí a již funkčních hotových zařízení se jeví
jako velice praktické a perspektivní, hlavně z hlediska dostupnosti pro koncového zákazníka, který si
jen nainstaluje příslušný software na vlastní telefon a může jej hned začít využívat.
103
ČERNÝ, Michal. Ke konceptu soukromí v informační společnosti.
104
Ifitbit. Fitbit Flex.
105
Google Play. Sleep as Android.
63
Mimořádně populární jsou také systémy na podporu inteligentní domácnosti, kterou lze do velké
míry ovládat přes síť – ať již jde o řízení zabezpečovacího systému, ledničky, která je schopná
analyzovat, jaké potraviny v ní již nejsou a sama je objednávat, až po topení, které lze zapnout na
dálku, stejně dobře jako osvětlení proti zlodějům nebo dětem televizi. V současné době jde o jednu
z nejrozšířenějších aplikací, na kterou se bude postupně nabalovat řada dalších komponent a
vylepšení klasického obytného standardu.
64
Rozšířená realita
Podstatu rozšířené reality (anglický termín augmented reality, se někdy v češtině tlumočí jako
argumentovaná realita) je klasický koncept, který zná každý fanoušek sci-fi, který viděl filmy jako je
Terminátor či Star Trek, kde hrdinové namíří na nejrůznější objekty zařízení a před očima se jim
zobrazí kompletní výpis informací o nich. Rozšířená realita tak stojí mezi světem skutečným a zcela
virtuálním.106
Takový popis ukazuje široké spektrum toho, jak je možné rozšířenou realitu chápat a využívat. Od
relativně jednoduchých aplikací s mobilním telefonem, který určuje rychlost kolem jedoucích aut, až
po komplexní a robustní systémy spojené s brýlemi a podobnými zařízeními, které umožňují
dynamicky reagovat na situaci a poskytují velice širokou funkcionalitu, včetně možnosti vývoje
aplikací pro taková zařízení.
V současné době je základem téměř všech podobných systémů kamera, která scénu snímá, pak
počítač, který ji identifikuje, analyzuje a pracuje s výpočty a v neposlední řadě také zařízení, na
kterém se zobrazí výsledek pro uživatele. Jak jsme již uvedli, samotná zařízení, která poskytují
funkcionalitu pro rozšířenou realitu, mohou být různá, podle toho, s jakou sadou funkcí chtějí
pracovat. Futuristické vize pak hovoří o tom, že budoucnost bude ve vestavěných čipech přímo
v lidském těle, avšak to rozhodně nepředstavuje časový horizont, kterému se věnujeme v této
publikaci.
Ostatně pojem rozšířené reality je poměrně přesný – uživatel vidí více, než co se před ním ve
skutečnosti nachází. Jde také o základní hermeneutický předpoklad či klíč, se kterým je k vývoji
aplikací tohoto druhu přistupovat. Hledat možnosti, jak na základě objektů světa fyzického a jejich
chování, rozšířit informace, které má člověk k dispozici. Motivací přitom není většinou hra, ale přímý
ekonomický profit či zlepšení pracovních podmínek lidí, kteří mohou své profese vykonávat díky
podobným zařízením mnohem efektivněji a lépe.
106
MICHAL, Černý. Rozšířená realita: od mobilního telefonu k chytrým brýlím.
65
App iSkull je výukovou aplikací využívající konceptu rozšířené reality.107
Současná technická praxe
Rozšířená realita je sice tématem, které je častým námětem nejrůznějších sci-fi filmů a knih, ale
současně má již dnes obrovské množství praktickým aplikací. Jde o trend s velkou návazností nejen na
další softwarové trendy, ale také technologie a služby, které jsou částečně mimo základní produkci IT.
Příkladem mohou být nejrůznější akcelerometry, kompasy či gyroskopy, které jsou dnes běžnou
součástí chytrých mobilních telefonů či tabletů, které mají za cíl (mimo jiné) poskytovat funkční
základnu pro práci s rozšířenou realitou.
Pokud jde o základní hardwarovou strukturu zařízení, která pracují s augmented reality, lze
identifikovat relativně snadné abstraktní schéma. Základem je vždy nějaký detektor (nejčastěji
kamera), který dodává informace o fyzickém světě.108
Mimo kamery lze použít mikrofon či jiné čidlo,
ale nejde o standardní řešení. Je přitom třeba uvážit na jedné straně hmotnost a rozměry takového
zařízení, na straně druhé fyzikální omezení, která mohou být pro algoritmy problematické (k tomu se
ještě vrátíme).
Druhou komponentou je počítač či jiné zařízení, které analyzuje příchozí data, identifikuje v nich
patřičné objekty a poskytuje k nim další informace. Mimo procesor je tak nezbytná paměť, řadiče, ale
většinou také připojení na internet, neboť velká část aplikací nepracuje jen s lokálními daty. Obvykle
se setkáváme se snahou tato zařízení miniaturizovat, což vytváří limity v podobě omezeného výkonu
a paměti, stejně jako spotřeby. Baterie jsou velké a těžké, jejich miniaturizace postupuje relativně
pomalu a představují tak jedno z hlavních omezení.
107
Augumented reality. Wikipedia.
108
TERNIER, Stefaan, et al. Mobile augmented reality with audio.
66
Mimo fakultativního síťového adaptéru a dalších připojených čidel (GPS, kompas, gyroskop) je
nezbytnou součástí také určité výstupní zařízení. Lze použít obrazovku mobilního telefonu nebo
například populární HUD display. Jde o průhledné obrazovky, na které se mohou promítat informace.
Dnes se hojně užívají především ty čtvrté generace, které umožňují pracovat i s video obrázky za
využití laseru a tekutých krystalů.
Z hlediska technologie identifikace obrazu lze pracovat s různými základními postupy. První,
nejjednodušší možností je využití markerů. Jde o 2D kódy či obrázky, které umožňují s objektem nějak
dále pracovat. Nejjednodušším příkladem může být třeba QR kód109
na dveřích učebny, který zobrazí
rozvrh a kontakt na správce dané místnosti. Lze je ale používat také v knihách, inzerci nebo v galeriích
pro více informací o obraze, aniž by bylo třeba všude dávat rozsáhlé multimediální panely či
plakáty.110
QR kódy jsou dnes jednoznačně nejrozšířenější technologií svého druhu a i když mají řadu variant a
konkurentů, je princip činnosti vždy velice podobný. Kamera identifikuje 2D kód a pomocí přenesené
informace provede příslušnou akci – předá vizitku, odkaz, zobrazí text atp. Tyto kódy obvykle
obsahují velké množství redundantních dat a nejsou právě nejpohodlnější a nejrychlejší záležitostí
pro běžného uživatele. Na druhé straně jsou technicky rozhodně nejsnazším řešením.111
Druhou možností pracující se zcela jiným přístupem je analýza zobrazených objektů. Princip je velice
podobný, jako v případě algoritmu pro převod bitmapové grafiky na vektorovou. Dochází
k identifikaci nejdůležitějších křivek a jejich převod na polynomy, které jsou vzájemným způsobem
porovnávány. Lze také pracovat s dalšími parametry, jako jsou barvy, spojení polynomů nebo
identifikace pohybujícího se bodu. Výhodou tohoto postupu je velká robustnost použitého postupu.
Polynomy jsou také relativně nenáročné na přenos dat a lze s nimi dobře pracovat v databázích.112
Problémem takového postupu je ale výpočetní náročnost, shodnost více objektů a přítomnost
optických vad objektivu. Díky difrakci dochází k nutné deformaci obrazu u krajů, což je zvláště patrné
u malých kamer, kde jsou vady téměř v celé ploše a to značně netriviálního charakteru. Tyto vady
mají vliv na výpočet vhodného polynomu, takže značně ztěžují identifikaci objektů, které se nacházejí
před kamerou.
Třetí variantou, která se nejčastěji používá ve spojení s druhým postupem je práce s geolokačními
funkcemi. Jestliže systém zná přesnou polohu zařízení (pomocí GPS souřadnic), její orientaci v ploše
(elektronickým kompasem) a v prostoru (pomocí gyroskopu) může relativně snadno zjistit, na jakou
památku či jiný stacionární objekt se člověk dívá. Nejde jistě o univerzální řešení, ale například pro
identifikaci památek jde o výborný a hojně používaný nástroj.
Kombinace třetího a druhého přístupu často spočívá v tom, že pomocí lokalizace zařízení a uživatele
se omezí množina prohledávaných dat a přepočet polynomů pak nemusí být tak přesný a citlivý,
protože jen rozhoduje, který z dvou či pěti objektů je před uživatelem.
109
Alternativou mohou být například Blipper, Microsoft Tab, Google Goggles, MaxiCode či EZ Code.
Zajímavé jsou ale především AR code, které umožňují informaci zanést do pěkně vypadajícího dichromatického
obrázku či SnapTag.
110
Využití QR kódů ve školství. QR - kody.cz.
111
ULLRICH, Johannes. Malicious Images: What's a QR Code.
112
ZEZULA, Pavel. Future Trends in Similarity Searching. In Gonzalo Navarro and Vladimir Pestov. Proceedings
of the Simimarity Search and Applications 2013.
67
Dnes je nejčastějším způsobem práce s rozšířenou realitou využívání mobilního telefonu. Lze přitom
využít všech možností, které nabízejí příslušná API či frameworky. Pak již stačí jen vhodným
způsobem zpracovat obraz a připojit k němu příslušnou další informaci. Podobný vývoj aplikací bude
přitom možný i pro Google Glass, které představují zřejmě nejpopulárnější příklad speciálního
zařízení stavějícího na internetu věcí.113
Přístup k tomu, jak musí být zpracování obrazu náročné, se přitom značně různí. Velký úspěch mají
často jen triviální aplikace, které například umožňují měřit úhly či vzdálenosti od určitých objektů
(když jsme schopni definovat nějaké referenční měřítko) nebo třeba aplikace pro vyhledávání
majitelova automobilu na parkovišti. Jiným příkladem velice jednoduché aplikace mohou být virtuální
planetária – pomocí GPS, kompasu a gyroskopu systém ví, jakým směrem se uživatel dívá a na
obrazovku mu vypisuje polohy hvězd, jejich jména či kreslí souhvězdí.
Tyto příklady ukazují, že dobrých výsledků lze dosáhnout s relativně málem programátorských či
analytických zkušeností, ale že je třeba mít vždy dobrý a zajímavý nápad. Na druhou stranu existuje
zde velký prostor pro náročné experimentální projekty, které budou čerpat jak z pokročilých metod
zpracování obrazu, tak také z matematické informatiky. Takto definovaný prostor jen mimořádně
široký a zajímavý pro vývojáře všech velikostí a teoretických znalostí.
Návaznost na další technologie
Rozšířená realita má úzkou návaznost na problém big data. Obecně je třeba prohledávat velké
objemy dat a hledat správné informace, což je často kombinováno s poněkud netradiční strukturou
dat, ve kterých k vyhledávání dochází.114
Problém lze částečně řešit matematizací objektů, což ale
zvyšuje nároky na výkon a spotřebu zařízení, případně do celého procesu zpracování ještě vložit
mezičlánek virtualizace či cloudu.
Blízko má tato technologie také k počítačovému zpracování obrazu (případně dalších dat), ze kterého
si bere metody, techniky a koncepty dolování informací z klasických dvou nebo tří rozměrných
objektů. Především metody matematizace, rozpoznávání obličejů nebo práce s markery jsou v této
části informatiky dobře zpracovány a nacházejí zde hojné využití.115
Neméně významnou příbuznou disciplínou ke zpracování obrazu je OCR (Optical Character
Recognition), tedy rychlá a automatická identifikace a rozpoznání textu na obrázku a jeho převod do
lépe zpracovatelné polohy. Pro řadu aplikací jde o klíčovou funkci, kterou lze využívat nejrůznějším
způsobem – například pro překlad jídelního lístku, zjištění recenzí na prohlíženou knihu atp. OCR by
tedy mělo v optimálním případě pracovat v reálném čase a nabídnout případné další funkce z oblasti
zpracování přirozeného jazyka, jako je zmíněný strojový překlad.
Velmi blízko má augmented reality také k internetu věcí, do kterého je často také sama zapojena
nebo jehož služby aktivně využívá. Klíčovou je pak spolupráce s vyhledáváním a databázovými
systémy. Nejde jen o prosté procházení SQL databází, ale také o využití alternativních konceptů. Jak
technologie procházení multimediálních dat, tak i sémantického webu se přitom mohou práci
s jednotlivými aplikacemi výrazně pomoci a prospět.
113
Google Glass. Google.
114
Většinou jsou efektivnější noSQL databáze.
115
KATO, Hirokazu; BILLINGHURST, Mark. Marker tracking and hmd calibration for a video-based augmented
reality conferencing system.
68
Rozšířená realita bude stále více spolupracovat také s dalšími technologickými trendy, které mají
těsnou návaznost na elektrotechniku či zpracování elektrických signálů. V budoucnosti budou tato
zařízení také aktivně využívat koncept mobility, který (zatím bohužel není) obsažen v IPv6.
Silné stránky a možnosti
Pokud jde o silné stránky a možnosti využití této technologie, pak lze hovořit o téměř nepřeberném
množství aplikací. Dnes se běžně užívají systémy rozšířené reality u vojenských stíhačů, kteří vidí
informace o výšce, nepřátelském letadle a řadu dalších přímo na čelním skle. Díky tomu mají nejen
lepší orientaci v prostoru, ale také během bitevní operace nemusejí sledovat přístrojovou desku.
Zvláště u složitějších manévrů může jít o zlomky sekundy, které rozhodují o bytí a nebytí pilota.
Velké možnosti skrývá také koncept Google Glass116
(a jemu podobné117
) pro dělníky na stavbách. Lze
si zapnout příslušnou virtuální vrstvu a lidé vědí, kde bude zeď, kudy vést elektrické vedení či odpady.
To může na první pohled působit zbytečně – stavby se staví kvalitně i bez těchto technologií –
v případě oprav jde však o klíčovou věc, neboť není třeba hledat přesné místo vedení či větvení
infrastruktury, ale příslušný opravář ji hned vidí a přesně ví, kam se má podívat. Také pro zadavatele
stavby může být tato technika velice užitečná, protože mu umožňuje získat představu o prostoru a
případně měnit projekt či provádět drobné stavební zásahy v dostatečném předstihu (díky rozšířené
realitě snadno pozná, že někde chybí střešní okno, nebo že potřebuje příčku navíc).
Mimořádně zajímavé může být využití těchto aplikací také ve vzdělávání. Studenti mohou vidět ve
svých brýlích nejen model kostry, ale po pokynu učitele sledovat postupné přidávání či analýzu
dalších částí lidského těla, jako je nervová soustava či svalstvo. Lze provádět jednoduché vizualizace
řezů lidským tělem a řadu dalších činností, které jsou v současné době jen obtížně myslitelné.
Podobně lze ukazovat reálný fyzikální experiment s tím, že do něj bude zanesena vrstva ukazující
vektory síly nebo jiné významné informace. Jde tak o technologii, která má jednoznačně potenciál
změnit nejen způsob vzdělávání, ale také jeho zábavnost, pochopitelnost a efektivitu. Právě školy
budou možná jedním z největších konzumentů těchto aplikací, protože představují jednu z cest, jak
vyvést školu a vzdělávání obecně z krize.
Velké možnosti se nabízejí také v herním průmyslu. Jedna z prvních vlaštovek hra Ingress od Googlu
ukazuje,118
že potenciál i zájem lidí v této oblasti je mimořádný. Princip hry je jednoduchý – vědci
z CERNu objevili antihmotu a existují dvě strany, které mají k jejímu využívání odlišné postoje – jedni
ji chtějí užívat ve prospěch lidstva, druzí reflektují možná rizika. Oba tábory jsou tak kladné. Navrch
má vždy ta strana, která disponuje více body. Ty se získávají spojením tří portálů. Ty může člověk sám
vytvořit nebo vyrobit vlastní. Musí jít přitom o památky, umělecká díla a podobné objekty.
Tento příklad jen ukazuje, že hraní her lidi baví a skrývá v sobě zároveň velký potenciál z hlediska
monetizace. Může jít o placení provozoven a míst za to, že budou v mapě umístěna nebo budou mít
nějakou specifickou funkci nebo se jen využije lidský potenciál a společnost získá fotografie památek,
které by jinak musela kupovat.
Nemenší možnosti jsou také ukryty ve spojení sociálních sítí a rozšířené reality. Již dnes probíhají
první pokusy, které ukazují, jak by to mohlo fungovat. Stačí se pomocí brýlí či telefonu podívat na
116
Google Glass. Google.
117
Například INNOVEGA INC. Innovega.
118
Ingress. Ingress.
69
nějakou osobu a nejen že ji identifikujeme, ale můžeme se podívat na její profily v sociálních sítích,
zjistit jakou hudbu ráda poslouchá nebo co čte za knihy. Tyto aplikace tak možná zásadním způsobem
mohou změnit to, jak s druhými komunikujeme a podle čeho si vybíráme partnery k diskusi. Lze si
například představit, že na vědecké konferenci budeme chtít vyfiltrovat lidi, kteří mají stejný obor
zájmu jako my – a ani o něm třeba nemusí mluvit – stačí se podívat a hned je máme identifikované.
Koncept rozšířené reality postupně nahrazuje některé klasické postupy práce s informacemi.
Například informace o památce již nemusíme hledat v patřičném průvodci, ale systém sám by měl
budovu či sochu rozpoznat a poskytnout o ní informace. Samozřejmostí je dnes již navigace, která
umožňuje snadný pohyb ve městě i bez existence nějaké papírové mapy. Podobně si lze nechat
otestovat víno v obchodě, zjistit, jaké jsou na něj názory odborníků, podívat se na web výrobce atp.
Slabé stránky a možné problémy
Tak jako v případě jiných technologií, především pak internetu věcí, může být největší překážkou
uplatnění a masového používaní této technologie ochrana soukromí. Jestliže jsme hovořili o tom, že
díky augmented reality lze budovat sociální sítě, které by zobrazovaly informace o lidech kolem nás,
lze říci, že ne každý bude stát o to, aby bylo na první pohled zřejmé, že fotografoval v Nepálu a
poslouchá Jazz.
Klasické modely socializace a rozhovorů, které jsou běžné jak při navazování důvěrných vztahů, tak
také obyčejných přátelství se těmito technologiemi mohou silně měnit, což nelze považovat obecně
za kladný trend. Argument, že ne každý musí o sobě tato data zveřejňovat je sice možný, ale ne zcela
korektní. Pokud dojde k dostatečnému rozšíření těchto sítí, může nepřítomnost na nich znamenat
určitou sociální izolovanost, společenské znevýhodnění či komunikační bariéru. Těmto technologiím
se tak půjde jen velice obtížně vyhnout, pokud tedy nedojde k jejich regulaci nějakým legislativním
opatřením.
Dalším příbuzným problémem, především pro brýle a další podobná zařízení, může být pořizování
videozáznamů. To co se běžně odehraje v době, kdy je většina návštěvníků baru již značně podnapilá
a rychle upadne v zapomnění, se může stát relativně snadno materiálem, kterým lze zdiskreditovat
nějakou osobu. Z tohoto důvodu již některé podniky vstup s podobnými zařízeními zakazují. Podobně
lze zmínit obavy heren a kasin, kde lze pomocí nástrojů rozšířené reality například počítat karty nebo
jinak podvádět.
Rozšířená realita tak ještě více omezuje soukromí a bude zřejmě silně přetvářet některé vzorce
chování, na které jsme zvyklí – od beztrestného pití po seznamování. Otázkou, na kterou dnes
neexistuje jednoznačná odpověď, je, jaké budou mít tyto změny následky v širším kontextu na celý
vývoj sociálních vazeb a společenského chování. Například z hlediska dnešní etikety je takové chování
přinejmenším nepříliš vhodné.
Velká část zařízení je závislá na dostupnosti mobilního internetu v dostatečné kvalitě. Jestliže se
podíváme na problémy, které jsou spojené s budováním LTE sítí u nás, ale také ve světě, může také
tento rozměr představovat problém. Rozšířená realita mění celkové informační chování jednotlivce a
pohyb v prostředí, kde nemá k dispozici vše, na co je zvyklý, mu může činit problémy či obtíže. Tato
technologie alespoň prozatím – nebude jistě korektně fungovat na celém území ČR, natož ve státech,
70
kde je pokrytí kvalitním signálem ještě slabší. Masový rozvoj této technologie tak do velké míry bude
čekat na rozšíření LTE.119
Augmented reality s sebou přináší také možné bezpečnostní problémy. Jestliže ji budou lidé používat
v řadě okamžiků triviálních denních potřeb, jako je hledání bankomatu, nákupního střediska nebo
třeba pro získávání informací o nějaké osob, nabízí se velké lákadlo pro manipulaci s takovými daty.
Běžný uživatele se tak nemusí vůbec dozvědět důvod, proč šel do obchodu B a nikoli A, když oba jsou
podobně daleko, nebo proč jeho zařízení nezobrazilo zajímavou informaci o osobě, kterou právě
potkal na chodníku.
Tak jako v případě počítačového zpracování emocí zde narážíme na oblast, kde je řada osob
mimořádně snadno zmanipulovatelná, protože se řídí tím, co je součástí světa, který běžně vidí a
vnímá jako skutečný. Pokud se stanou informace tohoto druhu natolik běžné, že je lidé nebudou
oddělovat od fyzického světa, je lákadlo nejrůznějších manipulací z různých důvodů mimořádně
veliké.
Další možné překážky je možné vidět v malé spolehlivosti konkrétních služeb, které budou snižovat
vnímání celé technologie jako spolehlivé pro širokou veřejnost; nepříliš estetický vzhled celého
zařízení, který nebude chtít každý nosit nebo problém koexistence s dioptrickými brýlemi. V těchto
případech jde ale z velké části o problémy, které budou zřejmě jen dočasného charakteru.
Aktuální projekty
Projekty v oblasti rozšířené reality je možné chápat dvojím způsobem. První se věnuje samotným
specializovaným zařízením a druhý konkrétním aplikacím, dnes především pro mobilní telefony.
V první kategorii lze zmínit například projekt Innovega, který je financován v rámci projektu DARAPA.
Využívá speciálních soustředných pásů čoček, takže zvětšuje zorný úhel a umožňuje, aby obraz
vytvářený kamerou nebránil reálnému pohybu člověka v prostoru. Brýle, kterým jde zatím více o
hardware, než o software, jsou určené jednak vojákům a bezpečnostním složkám, ale také široké
veřejnosti. Nejznámějším projektem jsou pak Google Glass, které využívají operační systém Android a
informace zobrazují na HUD obrazovce.
Z oblasti aplikačních řešení jsme se již zmínili o Ingress, ale z dílny Google pochází také například
Google Goggles, který umí rozeznat památky, značky, umělecká díla, vína, kontaktní údaje nebo třeba
text a dále s nimi pracovat. Pro jeho korektní chod je třeba telefon s Androidem 2.1 a vyšším nebo
iOS 4.0.120
Příkladem zcela jiným, který nepotřebuje velké repozitáře dat je iOnRoad,121
který slouží pro detekci
kolizí automobilů a sledování provozu na silnicích. Stačí mobilní telefon vhodným způsobem umístit
do držáku u čelního skla (samozřejmostí je podrobný návod) a pak jen sledovat, jak je na obrazovku
promítána zelená oblast bezpečné vzdálenosti před vámi, vaše aktuální rychlost a vzdálenost od
nejbližšího čelního vozidla v sekundách (tedy při současné rychlosti). Navíc je možné z jízdy vytvářet
snímky a publikovat je na sociální síti.
119
PETREKA, Jiří. LTE v ČR: jedno promile na opojení nestačí.
120
Google Goggles. Google.
121
IOnRoad. IOnRoad.
71
Word Lens je aplikace, která umí rozpoznat text snímaný kamerkou a zajistit jeho překlad do jazyka
uživatele a to v reálném čase a přímo ve snímku. Layar je zajímavé prostředí, které přidává k obrazu
kamery další vrstvy s řadou informací, jako jsou blízké památky, kontakty ze zlatých stránek a řadu
dalších.122
Podobných aplikací přitom existují desítky, často přitom využívají otevřené zdroje, různá
API či nástroje třetích stran.
122
Layar. Layar.
72
Complex event processing
Complex event processing představuje systém analýzy toků dat a politik pro řešení určitých situací,
pro které je tento tok signifikantní. Nejčastěji jde o koncept pracující s modelem událostmi řízené
sítě, které jsou určitou inteligencí zachytávány a analyzovány. Nepracuje se přitom obvykle přímo
s daty, ale pouze s jejich toky, což umožňuje podstatně lepší a rychlejší reakci. Cílem takových
systémů je zefektivnění rozhodovacích procesů a měly by pracovat v (téměř) reálném čase.123
Příkladů jejich využití může být celá řada. Například v případě letiště je zřejmé, že letadlo nemůže
odletět dříve než devadesát minut poté, co je mu tankováno palivo. Pokud je naplánován let na
dřívější hodinu, měl by systém s konceptem complex event processing nejen automaticky oznámit
zpoždění, ale také ohlásit cestujícím, kdy se poletí, nabídnout například občerstvení se slevou nebo
upravit celkový letový řád. To vše bez zásahu řídícího pracovníka jen na základě předem
definovaného scénáře.
Podobně komplexně lze řešit také další činnosti, jako obchodování na burze (dnes nejčastější užití
těchto technologií), práce s nejrůznějšími preventivními opatřeními atp. Na první pohled může jít o
podobný systém, jaký nabízejí business intelligence systémy. Ty ale pracují s již existujícími daty,
které analyzují a snaží se nabídnout manažerovi dostatečně kvalitní podklady pro kvalifikované
rozhodování. Complex event processing se rozhodují sami a spíše okrajově pracují s daty, které jsou
součástí nějakých minulých zkušeností.
První technologie tohoto druhu se začaly objevovat kolem přelomu milénia, ale postupně jejich
význam roste. V nejbližší budoucnosti lze očekávat, že budou sloužit jako klíčové technologie pro
logistiku, marketing, management a další oblasti fungování firem. Dokonce lze říci, že půjde o
technologie, které mohou představovat integrální součást páteřní rozhodovací infrastruktury
organizace, což může posunout roli manažerů v řadě odvětví ke zcela jiným úkolům, než na jaké byli
zvyklí a připravovaní.
Esper ve své online verzi slouží pro programování CEP aplikací.
123
LUCKHAM, David C. The power of events.
73
Současná technická praxe
Complex event processing je sice relativně novým trendem v masovém využití, ale z hlediska svého
praktického technického řešení stojí na řadě tradičních, robustních a dobře vyzkoušených technikách
či technologiích. Do určité míry vychází ze zkušeností, které se učinili s business intelligence systémy.
Má podobný způsob vizualizace dat, nabízí podobné přehledy, pracuje s podobným způsobem
ovládání a může z něj vycházet také při rozhodovacích procesech.
Je třeba zdůraznit, že zatímco většina manažerů je na určitý způsob podpory business intelligence
zvyklá, u nových přístupů tomu tak být nemusí. Měly by tedy nabízet podobné rozhraní, které je již
uživatelům známé. Také tvorba vzorců chování bude do velké míry často závislá na zkušenostech,
které učinily s business intelligence systémy – pokud byla data X, byl postup Y při splnění podmínky Z.
Tak nějak je možné uvažovat a k prvotnímu plnění Complex event processing nástrojů dochází
většinou právě tímto způsobem. Rozhodně tak nelze říci, že by šlo o oddělené metody či technologie.
Naopak jejich úzká kooperace je pro efektivní řízení naprosto nezbytná.
Complex event processing pracují typicky pouze s toky dat, tak aby se vyhnuly analýze obrovských
souborů, které se navíc dynamicky mění, což je mimořádně výpočetně náročné, takže nenabízejí
skutečný hluboký pohled na situaci.124
Neslouží k tvorbě reportů nebo jako podklad pro strategické
řízení společnosti. To jsou všechno úkoly, které má zajišťovat business intelligence. Naopak rychlost a
dynamická možnost reakcí na změny dává prostor v oblasti jak přímého řízení některých procesů, tak
v upozornění odpovědných pracovníků, že nastává určitá nepředvídaná situace či jiná okolnost, na
kterou musí reagovat lidský element.
Dobrá provázanost obou prostředí umožňuje efektivní modelování situací a scénářů jejich řešení tím
přesněji, čím lépe má management k dispozici data i informace o jejich tocích. Jednou z důležitých
funkcí bude v budoucnu snaha o heuristickou analýzu obou způsobů práce s daty, hledání souvislostí
a kontextu, které umožní ještě jemnější a přesnější naladění reakcí, pokud možno v reálném čase.
Druhým důležitým konceptem jsou událostmi řízené sítě. Může jít buď o fyzický nebo jen o logický
koncept, který je v případě complex event processing využíván. Základní myšlenkou je, že jednotlivé
celky vysílají informace jen ve chvíli, kdy dochází k nějaké události. V opačném případě se buď
neozývají vůbec, nebo jen posílají data o tom, že jsou v provozu. Změnou může být jakákoli vnější
událost – u senzorických sítí na hlášení požáru je to oheň, u senzorů na pohyb zvěře je to pravidelné
hlášení o změně polohy atp.
Událostmi řízené sítě mají několik zásadních výhod – předně je to malá režie spojená s obsluhou.
Není třeba složitě řešit směrování, pravidelnou komunikaci atp. Síť je obvykle využívána relativně
zřídka a zvýšený tok dat jednoznačně identifikuje nějakou událost (například že hoří). Také nároky na
výkon senzorů jsou minimální, což vychází z požadavku na dlouhou výdrž na baterii. V případě
logických sítí tohoto typu tento parametr odpovídá malé spotřebě systémových prostředků jako je
procesor či paměť.
Ve skutečnosti často nepotřebujeme znát komplexní informaci k tomu, abychom se mohli nějakým
způsobem zachovat – pakliže víme, že ze senzorů v druhém patře obchodního domu přichází
124
WU, Eugene; DIAO, Yanlei; RIZVI, Shariq. High-performance complex event processing over streams.
74
hromadně data, pak tam zřejmě hoří a má se začít hasit, bez ohledu na řadu zajímavých podrobností,
které bude možné analyzovat později. Což ostatně pěkně ilustruje význam celé technologie.
Z hlediska praktické struktury je možné identifikovat pět základních komponent,125
které ji tvoří a
které mohou být vyvíjeny jak samostatně, tak také – a to především – jako integrálně provázaný
celek. Toto spojení může být na jednu stranu přínosné, na druhou stranu práce s jednotlivými
komponenty dodržující obecné standardy XML struktury dat může být efektivnější – jak v lepší
přístupnosti a personalizaci přání zákazníka, tak také pro integraci s další podnikovou infrastrukturou,
na jejímž dobrém fungování je celý přístup zcela závislý.
Korelační enginy jsou nástroje, které umožňují analyzovat obrovské toky dat a hledat v nich
souvislosti a důležité scénáře. Příkladem může být analýza internetové sítě, kdy v páteřní
infrastruktuře proudí desítky či stovky gigabitů za sekundu, přesto lze najít proudy, které vykazují
nějaké neobvyklé vlastnosti – ať již jde o prioritní provoz nebo třeba o DoS útok. Korelační enginy
tedy dokáží vytřídit taková data, která mají pro definované scénáře vliv, analyzovat je a určit, který
z navržených postupů bude optimálním řešením.
Druhou důležitou komponentou jsou adaptéry, které primárně slouží pro přebírání dat
z nejrůznějších zdrojů, jako jsou senzorické sítě, systémová zařízení, data od vnějších poskytovatelů
atp. Hotová komerční řešení obsahují velké množství již předpřipravených adaptérů, které lze snadno
použít, stejně jako možnost tvorby vlastních. Mimo přebírání momentálně vznikajících dat řeší také
data enrichment, tedy doplnění proudu o informace s databází a informačních systémů. Rozhodování
se bude záležet na tom, jakému zákazníkovi se nepodaří poskytnout službu, s kým se právě
obchoduje atp.
Důležitou komponentou je prostředí pro vývoj aplikací a scénářů. Jde o jazyky, které pracují s kauzální
spojitostí jednotlivých sledovaných jevů a obvykle s nimi nepracuje přímo manažer, ale nějaký IT
specialista. Pomocí jazyka je jednak nutné identifikovat všechny potřebné fenomény, se kterými
chceme pracovat a pak definovat jejich posloupnost pro jednotlivé scénáře. Postup tak může vypadat
následovně: jestliže A a do dvaceti vteřin B a současně do třiceti vteřin ne C, tak dělej D. Lze budovat
obecně velice složité konstrukce, které by umožnily co možná nejlépe definovat postupy, podle
patřičných manažerských strategií.
Dashboard, tedy manažerské rozhraní, které slouží pro vizualizaci výsledků v reálném čase,
představuje další důležitou komponentu.126
Je velice podobné tomu, co je všeobecné známé z
business intelligence a je přirozené, že se budou hledat cesty pro jejich přiměřenou integraci, ač
každé z nich pracuje s jinými daty a matematickými nástroji. Manažer má ale přes existenci
automatických systémů možnost do procesů sám zasahovat, což je vhodné především tehdy, když se
objeví proměnná, se kterou se během modelování nepočítalo, nebo nastane nějaká nepředvídatelná
situace.127
125
GREGOR, Jiří; HOLUB, Martin. Nástroje complex event processing jsou klíčem k efektivnímu rozhodování v
reálném čase.
126
HEDGEBETH, Darius. Data-driven decision making for the enterprise: an overview of business intelligence
applications.
127
WATSON, Hugh J., et al. Real-time business intelligence: Best practices at Continental Airlines.
75
Poslední důležitou komponentou jsou simulační nástroje, které mohou pracovat na řadě principů.
Jejich obecným cílem je ověřovat výhodnost či platnost scénářů, které byly napsány a kontrolovat,
zda skutečně fungují. Díky své automatizaci a nasazení v řadě náročných situací jsou complex event
processing systémy mimořádně citlivé na jakoukoli chybu či nepřesnost. Často může mít i banální
problém za následky ztrátu velkých finančních prostředků nebo nemusí být zřejmé, jak je výhodné se
v určité situaci zachovat. Tyto nástroje jsou tak nezbytnou součástí funkčního řešení, které má zajistit
fungování celého systému.
Obecně je pak možné complex event processing systémy rozdělit do dvou velkých základních
kategorií. První jsou výpočtově orientované, které která pracují neustále a vyhodnocují konkrétní
data v pravidelném sledu. Takový systém má téměř konstantní zátěž. Příkladem takového systému
může být výpočet průměrné teploty z pravidelného hlášení čidel. Druhé řešení je založené na
zjišťování událostí a jejich vyhodnocování ve chvíli, kdy nastanou. Příkladem může být zjištění
zpoždění letadla a následná reakce v podobě servisu pro cestující.
Další dělení complex event processing systémů může být podle toho, jak moc pracují s proudy dat a
s daty samotnými. V úvodu bylo naznačeno, že obecně se pracuje především s proudy, ale ve
skutečnosti lze identifikovat velké množství hybridních systémů pracujících s daty v nějaké
zjednodušené formě. Díky tomu se obchází problém s big daty v čase, protože se sníží objem
skutečného množství informací, které musí procesor v (téměř) reálném čase spočítat.
Silné stránky a možnosti
První silná stránka vychází se samotného principu fungování celé technologie, protože řeší big data
problém tím, že jej obchází. Místo schraňování a pozdějšího přepočítávání obrovského množství dat
je možné se věnovat jen tokům a zpracovávat je v podstatě okamžitě, což zásadním způsobem snižuje
požadavky na výpočetní techniku i náklady na její provoz. Obejít problém, který je v oblasti big data
je vždy výhodné a v případě complex event processing systémů, které umožňují z dat vytěžit mnohé
informace, jde o řešení mimořádně elegantní.128
Jde o klíčový nástroj, který může posunout rozhodovací procesy a řízení společností směrem
k exaktnějším modelům, což má vliv nejen na pracovní morálku zaměstnanců, kteří chápou postupy,
které jsou nějakým způsobem racionálně zdůvodněny, tak také k lepšímu přemýšlení o tom, jak by
měla firma fungovat, na jakých determinantech jsou jednotlivé procesy závislé atp. Právě tato
dekompozice jednotlivých procesů na determinanty, které lze relativně dobře ladit a simulovat, je
mimořádně důležitá v oblasti konkurenční výhody. Především u velkých firem může představovat
úspora ve výši jednotek procent obrovské finanční zdroje, které lze využívat jinde.
Zde je možné vidět těsnou návaznost na lean management, který provozuje například Toyota. Pro
tuto firmu je mimořádně důležité mít dokonalý přehled o tom, co se v jejich skladech i výrobních
procesech děje, protože zpoždění v řádu jednotek minut má velké ekonomické dopady. Complex
event processing v takovém případě představuje jednoduchou metodu, jak automaticky flexibilně
měnit velikost a druh objednávek, přemísťovat lidské zdroje nebo provádět další opatření, která by
umožnila, aby firma mohla s tímto způsobem řízení pracovat dále. Dobře nastavený systém bude mít
vždy lepší a rychlejší informace i reakce, nežli manažer, který nad výrobou dlí.
128
LUCKHAM, David C.; FRASCA, Brian. Complex event processing in distributed systems.
76
Také z hlediska inovací je complex event processing mimořádně výhodným nástrojem. Total Quality
Management (TQM) stojí na myšlence neustálého postupného inovování všech procesů ve firmě.
Díky simulačním nástrojům lze relativně snadno hledat nejrůznější optima, která pak budou zanášena
do inovačního procesu. Zatímco dříve byla řada zásahů otázkou instinktu nebo jen testem manažera,
dnes jde o numerické řešení diferenciálních rovnic, což vede obvykle k jednoznačným výsledkům a
podkladům pro manažerská rozhodnutí.
Klíčový z hlediska celé technologie je ale především určitý bezpečnostní či krizový management, který
má pomáhat organizovat. Jak se zachovat k pasažérům první třídy, když má jejich let zpoždění? Jak
efektivně komunikovat s dodavateli? Co dělat, když začne hořet? To jsou jen některé scénáře, které
je možné namodelovat, odzkoušet a nasadit do praxe. Rychlá reakce je vždy důležitá a díky
automatickým systémům jen málo závislá na lidském stresu či chybách. Díky těmto prostředkům lze
snadno překonávat nejrůznější krizové scénáře. Ostatně často jen to, že implementace complex
event processing nutí manažery o těchto věcech přemýšlet, může firmu silně posunout kupředu.
Je ale možné opustit vytvořené a zajeté koleje podobných konzervativních strategií a podívat se na
možnosti poněkud kreativnější. První, o které se hodně hovoří, je real time marketing. Podle počasí,
chování lidí, pohybových vzorců lze automaticky měnit reklamní kampaň tak, aby byla maximálně
účinná – pokud prší, lze na obrazovkách nabízet možnost schovat se v kavárně, která se hned dozví o
tom, že má nachystat prostor na osušení deštníků. S lidmi nudícími se ve vestibulu nádraží, kteří
čekají na vlak, lze také pracovat specifickým způsobem.
Podobně se mohou tyto postupy prosazovat v dopravě, kdy lze identifikovat prioritní tahy, kterým
budeme díky semaforům dávat přednost před jinými, v závislosti na dopravní obslužnosti, nebo lze
rychle a jednoduše navrhovat objízdné trasy. Vždy záleží na vhodně zvolené strategii a komplexnosti,
které pro systém zvolíme.129
Možností je ale samozřejmě více – velkou oblastí mohou být medicínská zařízení, které budou před
příchodem lékaře zachraňovat pacienta vhodnými dávkami léků či úpravou chodu přístrojů nebo i
relativně triviální výrobní procesy. Complex event processing je fenomén, který se postupně prosadí
všude a v oblasti možnosti jeho využití se kreativitě rozhodně meze nekladou.
Slabé stránky a možné problémy
Celý systém ale může mít – a v reálných situacích obvykle také má, několik slabých míst. Tím prvním
může být oslabení osoby manažera. To může být sice člověk, který se rozhoduje na základě
racionálních informací, ale také vizionář, hazardér, inovátor. Člověk, který se chová nekonvenčně a
dokáže strhnout ostatní, i pře porušení všech manažerských příruček a zásad. Těžko si lze představit,
že by společnosti jako Apple, která stála na Jobsovi, Google s Brintem či firmy Sorose a dalších, mohly
mít úspěch, kdyby se opíraly jen o complex event processing. Potlačení génia ducha vůdce a snaha o
hledání průměrného úspěchu je jedním z úskalí, na které může implementace těchto systémů
narazit.
S tím souvisí také změna sociální struktury organizací, kdy se na vedoucí pozici objevuje
automatizovaný proces místo člověka, kterému je možné věřit, jakožto osobě. Řada manažerů se
129
VU, V.-T., et al. Audio-video event recognition system for public transport security.
77
může na různých pozicích dostávat do sporu s tím, co chtějí oni a co po nich vyžaduje softwarové
řešení.
Zatímco většina manažerů neudělá úplně špatné rozhodnutí, v případě špatně či málo
nasimulovaných jevů je riziko chyb velké. Často není dostatek času na testování a výsledky
automatických rozhodovacích procesů pak mohou být velice špatné. Zvláště u dynamicky se
rozvíjejících společností, nebo skutečně složitých produktů lze často jen obtížně dobře definovat
všechny faktory, které je třeba sledovat a vyhodnocovat. Zanedbání některého z nich může během
simulace zůstat nepovšimnuté (prostě se nezvažuje), avšak přitom mít fatální dopad na to, jak celá
firma funguje. Škody takto špatně nastavených procesů mohou být enormní a často chybí možnost
rychlého zásahu člověka.
Velká část manažerů není na práci s complex event processing vůbec připravena. O jednotlivých
procesech, akcích a strategiích přemýšlí v kategoriích, které lze těžko zapsat do exaktních scénářů a
formálních jazyků. Často přitom nejde o neúspěšné či špatně pracující osoby. Zavedení takové
technologie „násilím“ opět může mít nedobrý dopad na fungování celé organizace. Druhou
významnou nepřipraveností je pak tradičně malá znalost formálních jazyků a ICT obecně, ale také
matematiky, což může představovat další problémy.
Pokud jde o neznalost formálních jazyků a informační techniky, pak se zpravidla zavádí mezi
manažera a systém samotný ICT odborník, který by měl vše, dle požadavků vedoucího pracovníka
nastavit. Jde o legitimní řešení, ale pokud manažer nerozumí možnostem systému a jeho síle či míře
abstrakce, může jen těžko plně využívat jeho možnosti a pracovat s ním správně a efektivně. Může se
tak stát, že nákladně budovaný systém je užíván jen zcela okrajově nebo zcela povrchně, protože
manažer není schopen dobře definovat všechny potřebné parametry systému.
Na to pak navazují problémy, které jsou umocněné neznalostí matematiky, v oblasti rozhodovacích
procesů při práci s dashboardem, kdy může špatná interpretace dat či grafů, nebo jen neznalost toho,
z čeho vycházejí a jak jsou konstruovány, vést k nedobrým manažerským rozhodnutím. Je tedy
nezbytné nejen vybudovat a dobře nastavit celý systém automatického řízení na základě událostí, ale
také pečlivě vybírat manažery, provádět školení atp.
Dalším možným problémem může být to, že systému se nemusí dostávat dobrých a spolehlivých
informací. Může se stát, že ani sebelépe vytvořený model nebude v praxi fungovat, protože nebude
mít k dispozici dostatečné množství dat, se kterými by mohl efektivně pracovat. To implikuje rozdíl
mezi formální správností a praktickým fungováním, který může být propastný. Může jít o další část
zavádění modelu, která může být podceňována.
V neposlední řadě je zde pak otázka finančních nákladů. Ty souvisí jak s budováním infrastruktury
v podobě kamer, čidel, sítí či počítačů, tak také s náklady na implementaci a další údržbu. Je třeba
uvážit, zda pro danou organizaci mohou být takto robustní a komplexní systémy přínosné, nebo zda
naopak budou představovat trvalou finanční zátěž, která bude firmě na obtíž.
Aktuální projekty
Zřejmě nejznámějším příkladem dnes užívaných complex event processing systémů jsou burzy
cenných papírů a komodit. Ty dříve pracovaly na relativně triviálním principu – pokud je k dispozici
určité množství cenných papírů za danou (nebo nižší) cenu, automaticky jsou koupeny. Takto jsou pak
78
uspokojovány požadavky všech, kteří makléře o nákup požádají. Mohou se ale objevit zajímavé chyby
– například systém kupuje akcie po jedné. Za každou ale zaplatí poplatek burze (ten je konstantní za
obchod, bez ohledu na to, zda je akcií sto nebo jediná), čímž výrazně zvýší cenu jednotkové akcie pro
koncového majitele. Dnešní systémy jsou obvykle mnohem komplexnější – umí analyzovat nálady na
burze, pracovat s doporučeními analytiků nebo sledovat zprávy a konkrétních titulech. Požadavek
kupujícího může být irelevantní, pokud nastane nějaká nenadálá událost.130
Pokud jde o optimalizace firemních procesů, již byl zmíněn příklad Hamburského přístaviště. Zde
funguje průběžné monitorování výkladu lodí, přidělování skladovacích prostor nebo automatická
navigace plavidel v docích tak, aby se minimalizovalo čekání a zlepšoval výkon celého komplexu firem
a přidružených aktivit.
Pro vývojáře i koncové uživatele může být zajímavý také engine Esper, což je open source komplexní
prostředí pro complex event processing. Disponuje předpřipravenými sadami nástrojů pro senzorické
sítě (RFID, plánované komunikace se senzory atp.131
), finanční transakce, monitorování sítí nebo
práce s Business process management a jeho automatizací. Tento engine je relativně dobře udělaný a
díky bohaté nabídce vestavěných funkcí se dobře hodí pro nejrůznější úpravy a rozšíření, případně
dokonalé přizpůsobení potřebám jednotlivých koncových zákazníků.
Již dnes jsou ale základní nástroje pro práci s touto technologií formou nejrůznějších modulů a
rozšíření dostupné také pro běžná vývojová prostředí, jako je NetBeans, což je pro vývojáře a
programátory velice příjemnou pomocí. 132
130
Srov. LUNDBERG, Alan. Leverage complex event processing to improve operational performance. nebo
ECKERT, Michael. Complex event processing with XChange EQ: language design, formal semantics, and
incremental evaluation for querying events.
131
Více o těchto technologiích v kapitole věnované internetu věcí.
132
Srov. KARPÍŠEK, Jiří. Praktický úvod do Complex Event Processing.
79
Bring your own device (BYOD)
BYOD (z anglického "Bring Your Own Device") je jedním z nejvýznamnějších trendů, které budou
ovlivňovat IT prostředí ve firmách v nejbližších letech. Základní myšlenkou je, že si zaměstnanci nosí
do práce svá vlastní chytrá zařízení, jako jsou tablety, mobilní telefony či notebooky, která následně
používají k výkonu své pracovní činnosti.
Velkou výhodou tohoto konceptu je skutečnost, že lidé mohou pracovat v prostředí, které je jim
známé, je nastavené podle jejich potřeb a dokonale jim vyhovuje. Na druhou stranu je naopak nutné
posílit transparentnost firemních sítí, zajistit mobile device management (MDM) nebo uvážit
bezpečnostní rizika.
Podle všeho je BYOD velice užitečným trendem, který posiluje efektivitu. Podle Jiřího Deváta z Cisco
ČR „data z USA ukazují, že ekonomický přínos konceptu BYOD se pohybuje v řádu minimálně stovek
dolarů na každého zaměstnance za rok – a to je částka, která ve firmách s desítkami či stovkami lidí
hraje roli.“133
To co bylo ještě před několika lety (celý fenomén BYOD se formálně začíná více řešit až
v roce 2011, i když třeba Cicso má svůj nástroj na jeho podporu od roku 2009) bylo vnímáno jako
nemyslitelné či hrubé porušení pracovních povinností, se dnes stává stále více běžnou součástí
pracovního nasazení.
Z hlediska nových technologických výzev je klíčové, aby se společnosti naučily pracovat s MDM a aby
jejich infrastruktura podobná zařízení vnímala jako běžnou součást počítačové sítě. Druhou
významnou výzvou bude zajištění bezpečnosti, která se ve velkém množství zařízení zajišťuje
relativně obtížně. Jde o trend, který má úzkou návaznost na vývoj operačních systémů nebo
virtualizaci a cloudové služby, které umožňují podobné sítě budovat relativně snadno a zároveň
rychleji. Důležitá je také správa licencí, což může být u zařízení, která mají zaměstnanci relativně
problematické (například není možné na zařízení v režimu BYOD provozovat většinu bezplatných
antivirových programů, protože jde o komerční využití).
Mimo obvyklého nošení zařízení se lze setkat také s dalšími souvisejícími trendy, jako je BYOS, která
spočívá v přenášení služby či aplikace, kterou uživatel používá doma, do pracovního prostředí.
Příkladem může být vlastní mail či e-mailový klient, nástroje na time management nebo online
nástroje na synchronizaci zařízení, jako je Dropbox či Box.net.
133
LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku.
80
BYOD Smart Solution od Cicso v různých možnostech nasazení.134
Soudobá technická praxe
BYOD již není dávno konceptem čistě teoretickým nebo trendovým, ale skutečností, která již definuje
celý trh a vývoj firemních počítačových sítí na všech úrovních. Přibližně 30 % IT profesionálů jej
považuje za trend s největším vlivem na firemní IT v příštích 3 letech. Podle stejného průzkumu CISCO
z dubna 2013 přes 50 % respondentů již služeb BYOD běžně využívá a svá soukromá zařízení si nosí
do práce sami. Meziročně se důvěra v tento trend zvýšila dvojnásobně a i nadále roste.135
Je tak vidět, jeho význam i v českých podnicích stále stoupá. 27 % firem však nemá vůbec vyřešený
systém zabezpečení BYOD sítí, jen dvě třetiny firem mají definovaná pravidla používání vlastních
zařízení, což je překvapivě málo.136
Je přitom třeba si uvědomit, že BYOD mají úzký vztah
k pracovnímu právu, hygieně i licenční politice. V tomto kontextu nemusí být nošení vlastních zařízení
do firem jen záležitostí interní situace uvnitř organisace, ale může představovat také problémy
v oblasti legislativy. Proto je třeba věnovat nastavení těchto pravidel náležitou pozornost. Umožňují
také předejít řadě možným konfliktním situacím, které mohou nastat při anarchistickém používání.
Z hlediska samotné struktury zabezpečení fungování sítí je možné hovořit o čtyřech základních
vrstvách, které by měl mít každý systém BYOD pokryté.137
Často přitom nejde o obecný problém
134
BYOD Smart Solution: Implementation. Cicso.
135
LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku.
136
Tamtéž.
137
MCLELLAN, Charles. Consumerization, BYOD and MDM: What you need to know.
81
optimalizace, ale o nastavení toho, co je pro danou organisaci z různých důvodů nejlepší, v závislosti
na konkrétních zaměstnancích a jejich zařízeních. Jiné problémy bude řešit firma, ve které pracují
grafici, kteří nosí do práce jen výrobky od Apple a technologické firmy, kde jsou mimo nich také
zařízení s Androidem či Windows, mnohdy v dosti odlišných verzích.
(Mobile) Device management představuje první vrstvu, která zabezpečuje samotné principiální
fungování podobných sítí a to na více úrovních ISO-OSI modelu. Základní funkcionalitou je připojení
zařízení do firemní sítě, ale je také třeba nabídnout možnost monitorování polohy zařízení, omezený
přístup jen z určitých oblastí k určitým funkcím (například možnost tisku jen z kanceláří), stejně jako
případnou deaktivaci určitých možností zařízení, pokud přistupují k firemní infrastruktuře. Je přitom
nutné se vypořádat s řadou dílčích problémů, jako je rozmanitost zařízení, způsobů jejich konfigurace
v sítí atp.
Do této úrovně patří také základní nastavení možnosti přístupu k síťovým prostředkům, jako jsou
servery či síťové disky. Na úrovni MDM by měl mít administrátor sítě možnost omezovat anebo
naopak zpřístupňovat jednotlivé funkcionality konkrétním zařízením a evidovat jejich činnost, i když
se zachováním soukromí.
Application management představuje oblast, ze které jsou většinou největší obavy a často se řeší
předpisy, což je sice varianta nejjednodušší, ale také nejméně spolehlivá. Jestliže zaměstnanci
používají BYOD, je třeba, aby měl správce sítě k dispozici prostředky, které by omezovaly
nainstalované aplikace, které by mohly obsahovat trojské koně a další škodlivý kód, nebo byly
z jiného důvodu nebezpečné pro firemní síť a data. Jednou z možností je kontrolovat nainstalované
aplikace, jinou snaha o vývoj vlastního rozhraní pro přístup k firemním sítím a zdrojům, který by
umožňoval mít v daný okamžik plný přehled o prostředcích a funkcích přenosných zařízeních.
Network management slouží k organisaci provozu na síti a to především z hlediska toho, k čemu je
využívána. Lze v rámci něj nastavit například seznam nepřístupných stránek nebo hlídat, aby si
uživatelé v práci nestahovali filmy či nehráli síťové hry. Hledají se přitom stále flexibilnější prostředky,
než pouhá kombinace black či white listů. Další důležitou funkcionalitou může být zabránění v užívání
zařízení, která se chovají celkově nestandardně. Tato část by měla kopírovat pravidla, která platí pro
běžná zařízení ve firemní síti.
Data management lze chápat také ve více úrovních. První je zabezpečení spolupráce dobrého
přístupu ke všem zdrojům a datům společnosti, což je nejčastěji řešeno aplikacemi, jako je MS
SharePoint a další kolaborativní nástroje. Další oblastí může být omezení možností data stahovat a
tak vynášet ze společnosti. To lze zabezpečit například prostřednictvím nejrůznějších cloudových či
síťových aplikacích. Velká část firem má obavu z úniku dat a právě tato vrstva by měla celý proces
lépe a efektivněji zabezpečit proti – ať již chtěnému či neúmyslnému – porušení bezpečnostních
pravidel.
V každém případě je ale třeba vhodně vybalancovat pracovní podmínky a komfort pro zaměstnance.
Na jedné straně je zde tlak na bezpečnost a restrikce, na straně druhé ale potřeba dobrého
pracovního prostředí, pohodlného výkonu a prostoru pro kreativitu. Jestliže je cílem BYOD především
zlepšení podmínek pro zaměstnance, které povede k vyšším pracovním výkonům, tak nastavení
pravidel na všech úrovních musí být velice uvážené.
82
Pokud jde o konkrétní aplikace, existují již desítky společností, které se více méně úspěšně snaží tuto
problematiku pokrýt. Mimo Cisco, které bylo jedno z prvních a nabízí zřejmě nejrobustnější služby,
především co se týče MDM, lze zmínit Good Technology, SAP, Symantec, AirWatch, MobileIron, SOTI
či Zenprise. V zásadě existují dvě významné skupiny řešení celé problematiky – jedna využívá
instalované aplikace a druhá se snaží akcentovat cloudové řešení. Zajímavý je také prostor pro
hybridní řešení, kdy je část řešena klasicky a část cloudově.
Prostor je nepochybně na úrovni pokročilé správy aplikací a licencí či v hledání nových netradičních
řešení, která budou mimo nezbytnou podporu BYOD řešit také celkové pracovní prostředí a
workflow, pravidla chování, zálohování a další činnosti. Nebo ve vývoji mobilních aplikací, které jsou
pro tyto činnosti stále ještě v plenkách. Důležité, snad více než jinde, je dbát na škálovatelnost a
flexibilitu takových řešení, která by měla být navrhována především s ohledem na potřeby konkrétní
skupiny zaměstnanců a organizace.
Návaznost na další technologie
BYOD není v žádném případě izolovaným trendem, který by se nijak nedotýkal dalších oblastí
informatiky či datového businessu. Již výše jsme se několikrát zmínili o návaznosti na cloud a to jak
v oblasti SaaS, tak také v IaaS. Oba koncepty přitom umožňují zajistit větší transparentnost firemní
infrastruktury, odbourávají řadu technických problémů a snižují finanční náklady na realizaci
funkčního a bezpečného BYOD. Platí, že čím je firma obvyklejší, tím nižší náklady jsou. Pokud
organizace pracuje s přísně tajnými daty nebo s velice specializovaným softwarem a velkými daty, je
vždy plné nasazení tohoto trendu problematické.138
Druhou úzce související oblastí je virtualizace, která představuje jednu z cest, jak se vyhnout velké
části možných problémů. Příkladem může být VMware's Horizon Mobile, který funguje tak, že
mobilní telefon skrze svého klienta jen ovládá vzdálený počítač, který mu poskytuje výpočetní výkon,
prostor pro data a ostatně také bezpečnostní prvky, které se téměř nemusí řešit na straně mobilního
telefonu. Jde o ideální řešení především tam, kde výkon přenosných zařízení je nižší, než jaké jsou
nároky a potřeby uživatelů.
Virtualizace spolu s cloudovými řešením se dnes jeví jako jedna z nejschůdnějších cest, jak zajistit
skutečně funkční a robustní model BYOD počítačových sítí. Navíc se může ukázat, že možnosti,
kterým se firma otevře díky těmto změnám, jsou použitelné také pro klasická zařízení. Na druhou
stranu nezbavují organizace povinnosti myslet na MDM či správu sítí.
S BYOD, respektive BYOS souvisí další zajímavá oblast operačních systémů. První řešení nabízí Google
v rámci svého Chrome OS, kdy uživatel po přihlášení dostane přístup ke všem svým datům a
aplikacím z libovolného zařízení. Nedochází tak k přenášení fyzických zařízení, ale jde o maximální
cloudové řešení, které s případným využíváním v tabletech či telefonem může být spojeno, ale není
to nutné.
Neméně zajímavý je také koncept nového Ubuntu pro mobilní telefony,139
které by mělo umožňovat
připojit zařízení k různým dokovacím stanicím a z mobilního telefonu snadno udělat SmartTV doma,
pracovní počítač v práci nebo tablet na cestách. V tomto případě je představa přímého použití
138
SCARFO, Antonio. New Security Perspectives around BYOD
139
ČERNÝ, Michal. Ubuntu jde s mobilními telefony naproti firmám.
83
zařízení typu BYOD přímo integrována do návrhu operačního systému. V tomto ohledu lze
předpokládat, že jej budou další pokusy následovat.
Silné stránky a možnosti
Již výše jsme zmínili citát z průzkumu Cisco, který ukazuje, že BYOD umožňuje společnostem uspořit
nemalé finanční prostředky. Zaměstnanci v práci užívají vlastní přístroje a organizace se tak nemusí
zatěžovat s jejich nákupem či opravou. Všechny náklady jsou obvykle na straně zaměstnance. Tento
aspekt šetření je možné vidět především v menších firmách, pro které jsou právě položky za
doplňkovou výpočetní techniku relativně významné.
Ukazuje se, že jednou z největších výhod je ale spokojenost uživatelů, kteří mohou využívat zařízení,
které dobře znají, vědí, kde co je a jsou zvyklí na jeho ergonomii. Asi každý, kdo velkou část pracovní
doby stráví psaním, je zvyklý na jednu konkrétní klávesnici a má problém přecházet mezi více různými
zařízeními. Podobně může grafik vyžadovat svůj monitor, tablet či třeba myš pro specifické nastavení
nebo vlastnosti. Jde tedy v prvé řadě o otázku produktivity – pokud bude novinář psát o třicet
procent rychleji na svém notebooku než na pracovním počítači, může téma zpracovat lépe nebo toho
napsat více.
Jestliže je produktivita vnímaná jako určitý imperativ managerských příruček, lze BYOD vnímat
pozitivně, ale současně je třeba zdůraznit, že by na tento aspekt jeho fungování neměli vývojáři
zapomínat. Je sice příjemné, pokud má daný nástroj skutečně pestrou paletu pokročilého nastavení a
bezpečnostních politik, ale měl by celkově směřovat především ke spokojenosti a produktivitě
jednotlivých zaměstnanců a jejich vzájemné spolupráci mezi sebou.
Dalším důležitým prvkem je větší mobilita zaměstnanců, kteří nemusejí být tolik vázáni na svůj
pracovní stůl a počítač. To umožňuje jejich rychlé přesouvání a organizování do skupin podle toho, na
kterém úkolu či projektu aktuálně pracují. Není třeba žádná adaptace na nové pracovní prostředí, lze
ihned začít pracovat. Dobře nastavený systém by ve firmě měl s tímto model počítat a právě rozměr
aktivní spolupráce více uživatelů mezi sebou akcentovat. BYOD je tak důležitým prvkem nejen pro
práci samotného zaměstnance, ale také pro podporu dynamického řízení společnosti, kdy zajišťuje
rychlou a bezproblémovou změnu umístění pracovníků.
Dalším významným prvkem je přání samotných zaměstnanců. Jen velice málo firem bude většinu
svých kmenových zaměstnanců nutit, aby používali BYOD, ale velká část lidí se pro něj rozhoduje
zcela dobrovolně a ráda. Z podpory nošení zařízení zaměstnanců se tak stává jednak nástroj pro jejich
větší osobní a pracovní spokojenost, ale také nástroje konkurenční výhody vůči dalším
zaměstnavatelům. Jde tedy o benefit, na který velká část zaměstnanců slyší.
Řada lidí má přitom k určitému operačnímu systému či zařízení silně emotivní vztah – zkusit
přesvědčit člověka, který je zvyklý na výrobky od Apple, že nový Android je lepší z hlediska firemní
infrastruktury je sice možné, ale zřejmě nikdy nezajistíme spokojenost tohoto zaměstnance. Právě
uživatelé výrobků s jablkem ve znaku jsou často se značkou identifikováni tak, že používání čehokoli
jiného výrazně snižuje jejich spokojenost.
Dalším důležitým prvkem v BYOD je stírání hranic mezi prací a volným časem. Uživatelé mají
k dispozici neustále pracovní nástroj, takže se mohou věnovat home office bez technických omezení
nebo pracovat o víkendech a z domu, když je to potřeba. Díky tomuto trendu a dobře připravené
84
infrastruktuře může být pracovní tempo lépe přizpůsobené potřebám konkrétní organisace v určitý
čas.
Neméně významnou oblastí je také uvádění nových technologií do firem, které by si je jinak nemohly
dovolit. Zaměstnanci tak užívají zpravidla modernější zařízení, než jsou ta, která by jim standardně
mohl poskytnout zaměstnavatel, díky čemuž jsou opět efektivnější. Místo kalendáře mohou používat
například moderní GTD aplikace v tabletu, na poradách mohou rychle dohledat podrobnosti či
informace atp. Tato skutečnost má také vliv na rozvoj počítačové a informační gramotnosti, což je
další faktor, který není možné z pohledu sociálního a intelektuálního kapitálu společnosti zanedbat.
V neposlední řadě vede často nutná úprava firemní infrastruktury k další optimalizaci již stabilních
struktur, které na první pohled fungují dobře. Dochází tak k novému definování pravidel, síťové
politiky nebo bezpečnostních opatření, nasazují se virtualizační nástroje nebo cloud. Díky těmto
modernizacím, které budou na první pohled často vypadat jen jako investice do BYOD se může zlepšit
řada procesů uvnitř organizace, což bude mít další finanční dopady.
Slabé stránky a možné problémy
Již jsme se zmínili o tom, že jedním z největších problémů, které jsou s BYOD spojené, jsou
bezpečnostní rizika, která přitom mohou být několika druhů. První skupinou je nezabezpečený či
neaktualizovaný software. Zatímco v klasických firemních sítích se dbá na užívání stabilních a
podporovaných verzí aplikací, u koncových uživatelů, kteří se mohou rozhodovat zcela svobodně, jaký
software využijí, tomu tak není a administrátor má jen velice málo prostředků, jak tuto situaci
upravit.140
To vše vede k extrémnímu zabezpečení celé sítě na úrovni vstupních firewallů, filtrů a dalších prvků,
což může její budování velice prodražit a případně mít negativní vliv na fungování celé infrastruktury,
kterou mohou podobné bezpečnostní opatření značným způsobem zatížit.
Dalším bezpečnostním problémem může být škodlivý kód přímo v zařízeních jednotlivých uživatelů,
jako jsou trojští koně či viry. V oblasti kyberteroristické bezpečnosti se má zato, že velká část útoků
masivního rozsahu využívá právě těchto prostředků, kdy pomocí BYOD či nevhodného užívání
služebních zařízení dochází k infikování sítě či krádeži dat. Ty zároveň představují zajímavou oblast,
které je vhodné věnovat patřičnou pozornost. Naivně definovaná pravidla (či jejich absence) bez
dostatečné softwarové podpory, mohou znamenat ztrátu dat nebo jejich poskytnutí konkurenci. Ať
již ztrátou či odcizením fyzického zařízení, jeho napadení škodlivým kódem nebo zcela úmyslným
vynesením mimo firmu. Jde o oblast, která je z hlediska bezpečnostní politiky u BYOD často silně
podceňovaná, nebo naopak vede k jejímu zákazu v různých organizacích.
Opět platí, že metody ochrany proti takovým únikům existují, ale často znamenají omezení či
znepříjemnění práce s daty či aplikacemi, což může vést k přesnému opaku toho, proč BYOD vlastně
zavádět, totiž k poklesu efektivity.
Jednou z největších obav u českých malých a středních firem je, že zaměstnanci nebudou na vlastních
zařízeních pracovat, ale budou jich využívat spíše k zábavě či prokrastinaci. V situaci, kdy je v řadě
zaměstnání zakázáno posílat v pracovní době SMS zprávy nebo je číst, může být představa pobytu
uživatele na sociální síti či využívání instant masageru relativně problematická. Pokud začne část
140
SKÁLA, Zbyněk. Nástrahy implementace BYOD politiky.
85
zaměstnanců používat BYOD, může dojít k rozpadu zavedené firemní kultury, případně dokonce
k tvorbě sociálních a výkonnostních bariér mezi zaměstnanci, podle toho, jak výkonné zařízení (a zda
vůbec) si může dovolit. V takovém případě je jistě vhodné uvážit, zda má zavádění tohoto trendu pro
organizaci skutečně pozitivní dopad či nikoli.
Pokud chce firma pracovat s BYOD skutečně správně, je třeba se připravit na značné počáteční
náklady, které budou spojené s nutnou změnou infrastruktury a nákupem patřičného softwarového
vybavení, které není úplně laciné. To také může odrazovat menší společnosti, které pak budou čelit
bezpečnostním hrozbám a rizikům.
Problematická je také instalace specializovaných aplikací, které uživatel pro práci potřebuje. Jde-li o
nákladnější software, je možné vnímat riziko zneužití podobného nástroje například pro práci pro
konkurenci (typicky může jít o nástroje pro simulaci nejrůznějších materiálových vlastností
konstrukcí), což může být také značně nepříjemné.
Technická podpora jednotlivých uživatelů je v takto koncipovaných sítích problematická, protože
závady a problémy, které se v unifikovaném prostředí obvykle opakují, jsou nahrazeny zcela novými,
jejichž odstranění není často triviální a na administrátora sítě či technika kladou mnohem větší
nároky na odbornost, softwarové vybavení i čas. Také správa celé heterogenní sítě se jeví v obecném
pohledu jako výrazně náročnější, než v případě kdy si IT oddělení samo volí užívaný hardware, který
je z různého důvodu vhodný pro práci v konkrétní síti.
Aktuální projekty
BYOD je aktuální trend a tak se nelze divit, že existuje již celá řada hotových řešení. BYOD Smart
Solution od Cisco je jedním z nejstarších a nejrobustnějších řešení, které obsahuje správu
přístupových bodů, zabezpečení, Network management a řadu dalších dílčích komponent. 141
Produkt
je přitom škálován tak, aby vyhovoval co možná největšímu spektru uživatelů, ale silnou podporu má
především u velkých společností.
Microsoft nabízí Windows Intune, což je komplexní balíček, který se snaží zajistit jednotnou
infrastrukturu, zabezpečení, správu zařízení a nabízí i speciální funkce pro BYOD. Jde o řešení, které je
vhodné především tam, kde převažuje Windows 8 (případně RT) a uživatelé používají mimo něj jen
iOS či Android. Zcela chybí například podpora Linuxu a dalších operačních systémů, včetně starších
Windows.142
Citrix usiluje o nabídku cloudových řešení a virtualizace, což je výhodné především v lepší dostupnosti
a nezávislosti na platformách. Problémem ale mohou být spíše méně řešené tvrdé nástroje na správu
konkrétních zařízení a jejich práv nebo bezpečnostních politik. Air-watch nabízí podporu pro správu
mobilních zařízení a aplikací, mobilního obsahu či bezpečnost. Opět ale nejde o nástroj na budování
komplexní infrastruktury. Mezi další známá řešení patří například ta od firmy RMI (BlackBarry), Apple
a některých dalších společností.
Obecně je možné problematiku shrnout tak, že jednotlivá dílčí řešení existují, avšak ta robustní a
klasická často ignorují moderní technologie a pohodlný přístup odkudkoli či virtualizaci, cloudové
naopak přirozeně nemají dostatečně dobře udělaný management zařízení v nejnižších dvou vrstvách,
141
Cisco. BYOD Smart Solution.
142
Microsoft. Windows Intune.
86
tak jak jsme je představovali výše. Pokročilé metody na správu licencí, kontroly aktualizace či
dynamického řešení workflow ale chybí a prosto pro jejich vývoj zde rozhodně je. Problémem často
neřešeným je také multiplatformita.143
143
Srov. HAYES, Bob a Kathleen KOTWICA. Bring Your Own Device (BYOD) to Work: Trend Report.
87
Programování a přístup k němu
Klíčovou oblastí ve vývoji aplikací je programování. Optimalizace algoritmům, přístup k problematice i
samotná volba programovacího jazyka mají zásadní vliv na to, jak vypadá výsledný produkt, zda je
konkurenceschopný a funkční. Vzhledem k omezenému rozsahu knihy není možné procházet všechny
nadějné či zajímavé jazyky, které by se hodili pro řešení určitých dílčích problémů. Námi zvolený jazyk
HTML5 je důležitý hned z několika důvodů – umožňuje integrovat desktopové, mobilní a webové
aplikace a tím nejen zajistit dobrou prostupnost dat a funkcí, ale také urychlit vývoj a snížit náklady
na něj. Je moderní, funkční a zajímavé z hlediska marketingu i možností, které přináší.
Druhým tématem, kterému se v této části budeme věnovat je problematika open source a to hned
z několika pohledů. Pro úspěšný vývoj libovolného produktu je důležité zvolit vhodné strategie pro
řízení týmu, přístupu k vývoji a programování jako takovému. Myšlenka open source nestojí primárně
na nulové ceně, ale právě na hledání optimálního přístupu k rychlému a funkčnímu vývoji a to jak pro
tvůrce, tak také pro zákazníka. S tím souvisí také vhodná volba licence, pod kterou bude produkt
šířen.
Poslední dvě kapitoly tak neukazují primárně trendy samotné, ale spíše dávají nahlédnout do širších
souvislostí vývoje aplikací.
88
HTML5
Současné webové stránky jsou realizované pomocí celé řady dílčích technologií. Statický web se opírá
o XHTML, případně HTML 4.x, což jsou relativně etablované a dobře popsané standardy, za kterými
stojí konsorcium W3C.
Pokud jde o webové aplikace, můžeme se setkat především s technologickým řešením
asynchronního JavaScriptu (AJAX), pro který je typické spojení XTML, kterým se popisuje
vzhled spolu s CSS, na které navazuje DOM a JavaScript pro zobrazování a dynamické změny
prezentovaných informací. Pro komunikaci se serverem je pak nutné užití XMLHttpRequest
(typicky je užíván formát XML, ale je možné použít libovolný jiný formát včetně HTML,
prostého textu, JSON či EBML).144
Mimo to se na webu silně uplatňuje Flash pro tvorbu
aplikací, dynamické stránky využívají PHP či JAVA.
V tomto kontextu je jasné, že web by potřeboval silný etablovaný jazyk, který by uměl na jedné
straně dobře nahradit XTML a AJAX a současně přinesl oddělení formy od obsahu, což je klíčové
z hlediska dolování dat, podpory nevidomých a slabozrakých uživatelů, ale také obecně pro jakékoliv
strojové zpracování.
HTML5 vznikl jako značkovací jazyk, který má ambice nahradit XTML a Flash. Umožňuje programování
prvků na webových stránkách, nabízí podporu multimédií nebo lepší práci s formuláři. Na druhou
stranu ani HTML5 si nevystačí samo. Pro plné využití jeho funkcí je nutné využít CSS3, které definuje
přesný vzhled jednotlivých objektů (nadpisů, odkazů, tabulek,…) a jsou zde také problémy se stále
nehotovou specifikací nebo výpočetním výkonem.
HTML5 představuje otevřený standard, který může zásadním způsobem změnit nejen to, jak dnešní
web vypadá, ale také nabídnout integraci online a offline aplikací do jednoho celku. Právě podpora
offline běhu patří mezi další důležité prvky, které jsou s HTML5 spojovány.
Důraz na logickou strukturu dokumentu i nové tagy (především canvas) nabízejí tvůrcům nové
možnosti rozvoje webu, který nebude závislý na proprietárních formátech, bude dobře podporovat
mobilní zařízení a nebude s ním problém na konkrétních platformách. Jeho stále narůstající obliba
svědčí o tom, že jde o technologii s velkou perspektivou.
144
HOLZNER, Steve. Ajax For Dummies.
89
Současná míra implementace nových vlastností HTML 5.145
Soudobá technická praxe
Když se poprvé v roce 1990 objevila první specifikace jazyka HTML,146
bylo to pro mnohé velmi
kontroverzní. Základní myšlenkou bylo zjednodušit popis dokumentu, k čemuž se používal TeX či
LaTeX takovou formou, která by byla přístupná pro webové prohlížeče a mohla dobře spolupracovat
s protokolem HTTP. Východiskem byla přitom zjednodušená specifikace jazyka SGML. První oficiální
vydání bylo v roce 1991 (verze 0.9) a tato verze jazyka nepodporovala grafický režim.
Velice rychle se ale ukázalo, že web (či hypertext) se bude rozvíjet mnohem rychleji, než se původně
očekávalo. Postupně tak docházelo k úpravám jednotlivých verzí tak, aby bylo možné uspokojit
potřeby vývojářů. Současně ale začala vznikat poptávka po tom, aby dokumenty byly nikoli jen
statické, ale aby bylo možné stránku dynamicky měnit na základě požadavků uživatele. Tuto potřebu
reflektoval jazyk PHP. Mimo to se začaly objevovat postupně další technologie, které se snažily
omezení HTML doplnit – Java Script umožňoval animaci prvků na stránkách, postupně nastoupil Flash
pro vývoj webových aplikací atp.
Původní myšlenka, že bude existovat jeden formát, který by popisoval vzhled a chování stránek, se
značně vzdálila od reality – dnešní prohlížeče potřebují podporu Flash, Java Script, Java a řada dalších
formátů, aby dokázaly uspokojit nároky uživatelů, kteří chtějí nakupovat v elektronických obchodech,
platit kartou, hrát hry nebo online sledovat video. V posledních letech se objevilo několik technologií,
které se tento problém snaží řešit.
145
HTML5. Wikipedia.
146
BERNERS LEE, Tim a CONNOLLY, Daniel. Hypertext Markup Language (HTML)
90
Velkým problémem je především užívání Flash, který není na zařízeních Apple podporován a
v současné době není v centru zájmu ani Linuxová verze interpreta jazyka. To znamená, že
preferovaný jazyk, který umožňoval velice jednoduchou a rychlou tvorbu aplikací, je stále více
zaměřen na jedinou platformu, kterou jsou Windows. To přináší nejen problémy s použitelností
jazyka, ale současně se jeho vývojáři stávají zajatci jedné společnosti, na jejichž technické podpoře
jsou plně závislí. Také vývoj aplikací není pod Windows vždy zcela příjemnou záležitostí.
Z výše uvedených důvodů je zřejmé, proč jsou tak velká očekávání vkládána do nové
specifikace HTML, která by umožnila zbavit se výše uvedené roztříštěnosti, problémů
s dolováním dat atp. Musí přitom stavět již na současně užívaných technologiích. Především
na XHTML, které mělo plně nahradit HTML 4.01, které vyšlo v roce 1999.147
Prvním problémem, který HTML5 řeší, je absence rozumného sémantického vyjadřování XHTML.
Tomu bylo v zásadě úplně lhostejné, jakou část stránky popisuje – vždy se užil tag div a to bez ohledu
na to, zda ohraničoval grafický prvek, info box, článek či odstavec. To je problematické pokud mají
vyhledávače textu rozumět nebo pokud jej potřebují nějakým dalším způsobem zpracovat. Také
nevidomým uživatelům by pomohlo, kdyby si mohli přečíst článek odděleně od okolních informací.
Proto přináší HTLM 5 následující nové tagy, které se vztahují ke struktuře dokumentu:148
header - reprezentuje hlavičku stránky
nav - reprezentuje část stránky, která je určena k navigaci, nejčastěji menu
article - reprezentuje delší textové části, jako jsou články, komentáře atp.
section - reprezentuje různé části stránek, např. kapitoly
aside - reprezentuje boční panel stránky
footer - reprezentuje patičku stránky
Pomocí těchto tagů (nikoli atributů) je možné stránku logicky rozčlenit. V tomto kontextu je dobré se
zmínit, že se paradoxně vrací k zásadám známých z TeX. Další zajímavostí je možnost spojit text s
obrázkem či videem do jednoho logického celku. Doposud bylo možné umístit popisek jen v atributu
alt, který představoval alternativní popisek v případě, že se obrázek nezobrazí správně. To že jej
prohlížeče aplikovali různě, je druhá věc. Nový tag figure umožňuje spojit obě zmíněné, logicky
související, informace do jednoho celku. Opět jde o velký krok směrem k logické struktuře i
strojovému zpracování webových stránek.
Další zásadní změny se týkají dialogů. Především na zpravodajských webech jde o relativně častou
činnost a tak se jí autoři specifikace rozhodli dát vlastní značku – dialog. Pomocí něj je možné velmi
snadno formátovat rozhovor. Opět je v pozadí podpora dialogových systémů a strojového
zpracování.
Jde o zcela zásadní změnu, která umožňuje různým algoritmům strojově analyzovat obsah, získávat
z něj informace a flexibilně jej přizpůsobovat požadavkům konkrétního uživatele. Člověk si tak může
přečíst pouze rozhovor v novinách a klepnutím na funkční klávesu se ocitne v navigaci či na jiném
rozumném místě. Tyto tagy zatím nejsou hojně využívané a lze říci, že jde o oblast, která se může
velice intenzivně rozvíjet.
147
W3C. HTML 4.01 Specification.
148
SMOLA, Martin. Seriál HTML5 a jeho zajímavé vlastnosti.
91
Stejně jako XHTML, také HTML5 obsahuje DOM, tedy logickou, stromovou strukturu (to
umělo již XHTML). Oproti svému předchůdci se může dobře opírat především o nově
zavedené značky section (ale i jiné). Cílem celého návrhu je snadná orientace uživatele i
automatizace ve zpracovávání informací.149
Jednoznačně mediálně nejznámější jsou možnosti v oblasti multimédií, které HTML5 přináší. Jde o tři
tagy audio, video a canvas, na které se podíváme podrobněji. Pokud chtěl někdo v klasickém (X)HTML
vložit na web video, měl smůlu. Jedinou možností bylo využití Flash přehrávače a to ještě většinou
tak, že se data streemovala z nějakého vzdáleného serveru (např. YouTube). To mělo několik
zásadních nevýhod. Uživatel musel mít Flash nainstalovaný, přehrávače byly bezpečnostně
problematické. Implementace samotného přehrávače byla relativně obtížná a tak velká část lidí
nahrála video na YouTube a na své stránky umístila jen přehrávač. Zobrazovaná reklama a odkazy na
další videa šli do kapsy Google (či jiné příslušné firmě) a uživatel neměl možnost je nijak ovlivňovat.
Díky novým tagům video a audio je vložení videa či audia na web záležitostí jedno řádku:
150
Asi nejzajímavějším tagem z této kategorie je ale canvas. Jde o tvorbu plátna, na které je možné v
rámci prohlížeče kreslit. Je tak možné vložit například interaktivní graf, měnící se obrázek, ovládací
prvek k videu a mnoho dalšího. Mimo jiné je možné díky tomuto prvku aktivně vyvíjet aplikace plně v
HTML5. Jde o přímou náhradu Flash.
Velkých změn a vylepšení se dočkaly také formuláře. Zatímco (X)HTLM nabízí jen základní spektrum
nástrojů, HTML5 je silně rozšiřuje. Původně nebylo možné provádět žádnou kontrolu údajů nebo
omezit vkládaná data. Jedinou možností bylo užít Java Scriptu či PHP. Díky nově zavedeným
atributům to ale již nebude nutné.
Velice užitečnou funkcí, která umožňuje efektivní tvorbu webových aplikací je podpora offline módu.
Prohlížeč si umí vytvořit během připojení na počítači soubory, kterých umí využívat v případě, že
uživatel není aktuálně připojený k internetu. 151
Mezi další novinky patří perzistentní úložiště formou asociativního pole či podpora relačních
databází. Ač jde o novinky, které jsou pro studenty možná nepříliš průhledné, jsou velmi důležité pro
vývoj aplikací. Je také třeba podotknout, že HTML5 přímo předpokládá spolupráci s CSS3.
Silné stránky a možnosti
Z výše uvedeného jsou již možnosti HTML5 relativně dobře nastíněné. Na tomto místě se tedy
pokusíme některé nastíněné výhody vytáhnout a popsat trochu blíže, tak aby bylo jasné, jaké
možnosti nabízí jednotlivé nové vlastnosti tohoto značkovacího jazyka.
149
BEHR, Johannes, et al. A scalable architecture for the HTML5/X3D integration model X3DOM.
150
Práce se zvukovými soubory pomocí tagu audio funguje úplně stejně. Zajímavou vlastností v tomto
kontextu je podpora alternativních formátů videa či audia. Autor webu může nabídnout prohlížeči video ve více
formátech a ten automaticky přehraje ten první, se kterým umí pracovat. Další zajímavostí je podpora obrázku
na titulní stránku videa.
151
LUBBERS, Peter; ALBERS, Brian; SALIM, Frank. Creating HTML5 Offline Web Applications.
92
První oblastí, která se již dnes začíná relativně intenzivně rýsovat, je podpora offline aplikací, které
budou napsané pomocí HTML5. Například Ubuntu 12.10 nabízí funkci, která umožňuje služby, které
jsou vytvořené v tomto jazyce nastavit jako běžné aplikace, takže je lze spustit z programové nabídky.
Také z hlediska uživatelského komfortu se jasně rýsují zajímavé možnosti.
Příkladem může být aplikace pro Gmail, kterou vytvořil Google. Pokud není uživatel připojen k síti,
zobrazí se mu e-maily za posledních třicet dní, může na ně v klidu odpovědět, třídit je atp. Všechny
změny se uloží lokálně a v okamžiku připojení se provede synchronizace. To umožňuje, aby s online
aplikacemi uživatel pracoval i bez připojení. Implementace není zatím úplně jednoduchá, ale první
pokusy již jsou a fungují dobře.
Druhou výraznou vlastností je oddělení logické struktury a vzhledu. Díky této vlastnosti lze webové
stránky, ale také další aplikace vyvíjet mnohem flexibilněji než doposud. Jednotlivá zařízení lze
zohlednit až na úrovni CSS3,152
tedy jednoznačné specifikace vzhledu. To umožňuje velice efektivně
navrhovat weby pro různá zařízení, která se od sebe liší velikostí obrazovky nebo způsobem ovládání.
Řada řešení, která se dnes dělají pomocí speciálních aplikací pro operační systémy, bude moci být
řešena právě touto cestou.
Oddělení logické struktury má ale také velký význam pro strojové zpracování dat. Díky
možnosti snadno identifikovat vlastní obsah, procházet oblasti s logickou návazností získává
programátor zcela nové možnosti, o kterých se mu v XHTML ani nesnilo. Ač se osobně
domnívám, že koncept sémantického webu je v zásadě mrtvý, protože práce s RDF je pro
tvůrce příliš pracná a nerentabilní, HTML5 umožňuje části tohoto návrhu webu znalostí
využít.
Velký význam mají tyto funkce také pro osoby s hendikepem nebo jinými specifickými potřebami.
Díky logické struktuře jim prohlížeč či čtecí zařízení může nabídnout skutečně jen obsah a nebude je
obtěžovat s čtením prvků, které jsou zajímavé pro SEO či navigaci, ale nemají vlastní informační
hodnotu. Druhou revolucí, která nás díky tomu čeká je změna vyhledávání a SEO. Zatímco dnes je
názor Marka Prokopa, že SEO je nesmysl a máme dělat optimalizaci pro uživatele, vnímán jako
relativně radikální, ve světle HTML5 dává zcela určitě smysl.
Zcela zásadní změnou pro návrh aplikací je a bude tag canvas, který lze vnímat jako plátno, na které
může návrhář psát či kreslit. Prakticky lze pomocí něj navrhovat aplikace a jejich vzhled nebo
realizovat počítačové hry. Jejich rozšíření pak jistě budou nahrávat nové progresivní grafické
formáty.153
Herní průmysl je vždy tahounem rozvoje počítačových technologií a první vlaštovky lze
vidět již dnes. Pokud vytvoříme aktivní herní prostředí přímo v okně prohlížeče, bude to představovat
cestu, jak podstatně zvýšit okruh hráčů. Samozřejmě s přihlédnutím k tomu, že půjde o aplikace
náročnější nežli Farm Ville a další Facobokové či flashové hry.
To samozřejmě otevírá prostor nejen pro herní vývojáře, ale pro celý obchod okolo počítačových her,
které budou provozovány v běžném prohlížeči. Od distribučních kanálů, přes marketing, pluginy na
podporu hraní a komunikaci mezi hráči až po platební prostředí. Pokud nevzniknou silné monopoly či
oligopoly lze očekávat, že se zde objeví zcela nová oblast pro start-upovou ekonomiku.
152
SIKOS, Leslie. Web standards: mastering HTML5, CSS3, and XML.
153
WILLIAMS, James L. Learning HTML5 game programming: a hands-on guide to building online games using
Canvas, SVG, and WebGL.
93
Velkou výzvu je pak možné vidět také ve spojení HTML5 a IPv6 na úrovni bezpečnosti, rychlosti a
především zajištění kvality služeb (QoS). Zatímco HTML5 integrálně pracuje s multimédii, IPv6
automaticky zajišťuje bezpečnost datového přenosu a možnost směrování na základě přenášeného
obsahu. Potenciál ve streamování videopřenosů, jednoduchou videkonfernci atp. je evidentní. Díky
těmto vlastnostem lze říci, že multimédia mohou zaznamenat novou renesanci a rozvoj v oblastech,
kde jejich použití bylo z různých důvodů doposud velice problematické.
Slabé stránky a možné problémy
Z toho co jsme doposud uvedli, se může zdát, že HTML5 je zcela bezproblémovou technologií se
světlou budoucností. Zde je dobré připomenout, že ani velice propracované standardy, které vyšly
z dílny W3C se neujali a neprosadily. Naopak současný web je často nevalidní a více než na standardy
se hledí na optimalizaci pro prohlížeče a vyhledávače. Pokud HTML5 nebude preferována vyhledávači
na úkor XHTML, bude velice složité kódery a programátory do této technologie dotlačit.
HTML5 totiž stále není definitivním a hotovým produktem. Existuje celá řada experimentálních
funkcí, které jsou do něj neustále dodávány, takže není zcela jasné, jak přesně správné tento
značkovací jazyk vypadá. Jednotlivé prohlížeče si jej tak interpretují po svém a každý akcentuje jinou
skupinu funkcí. Internet Explorer je tradičně velice konzervativní, což má za následek jen pozvolné
přebírání jednotlivých funkcí. Mozilla se snaží ve Firefoxu podporovat všechny relativně stabilní
funkce a vlastnosti a třeba Google v Chrome zcela přirozeně akcentuje především tu funkcionalitu,
kterou využívají jeho aplikace.
Tvůrce se tak dostává do složité situace hned několikanásobně. Díky tomu, že všechny výpočty
HTML5 provádí prohlížeč, je třeba, aby se mohl spolehnout na spektrum funkcí, které budou
uživatelům k dispozici. To dnes příliš nejde. K tomu je třeba připočíst postupný vývoj a připojování
stále nových standardů, vlastností a prvků. Všechny konzervační pokusy jsou zatím více méně
neúspěšné.
Z hlediska mobilních zařízení není optimální ani rozložení výkonu. Zatímco u AJAX za vše zodpovídá
server, který může být snadno škálovatelný a výkonný, který vývojář dokonale zná a může ovlivňovat,
u koncových zařízení tomu tak není. HTML5 aplikace jsou stále pro mobilní telefony často velice
náročné, takže se dává přednost těm nativním. Tam, kde mělo HTML5 přinést dobrou rozšiřitelnost,
táhne s sebou problémy s výkonem a nároky.
Vývojář také nemůže odhadnout, které algoritmy jsou v daném prohlížeči rychlé a které nikoli.
Jednotlivá výpočetní jádra se často liší právě tím, že obsahují různé mechanismy, které urychlují
některé algoritmy či funkce. A to je něco, co nelze předpovědět a dopředu vhodně rozhodnout.
Úplně pomalá aplikace se tak při změně prohlížeče může stát rychlou a efektivnější, než její
konkurence.
Obecně HTML5 není právě nejrychlejší a Flash je v celé řadě případů již hotové, osvědčené a kvalitní
řešení, které není vůle měnit. Náklady na vývoj nového nástroje či hry v HTML5 se tak nemusí vůbec
vyplatit. Výkon je nejistý a rozdíly na straně uživatele spíše malé.
Chybí také garance toho, jak se bud daná stránka přesně chovat u jednotlivého uživatele, což může
přinášet problémy pro reklamu, kterou by bylo možné snadno selektovat. Je také otázkou, jak moc se
94
bude chtít autorům webů důsledně dodržovat jednotlivé značky, pracovat na provázanosti a kvalitě.
Opět je to něco, co se nemusí na první pohled rychle vrátit.
Právě tato funkční roztříštěnost a problematická monetizace vedou k tomu, že se aplikace v HTML5
tvoří spíše menšina firem a to zvláště těch, které spolu s ním mohou ušetřit na některých nepřímých
poplatcích. Třeba těch za video formáty, díky čemuž se HTML5 stává stále více exkluzivní záležitostí,
na kterou tlačí především Google a několik nadšenců.
Tag canvas je také relativně nový, což znamená, že není zcela ošetřená jeho bezpečnost. Ta se neřeší
ani ve formulářích, což znamená, že je třeba ji zajistit pomocí dalších nástrojů. Také ke QoS bez IPv6
není dostatek nástrojů, takže rozvoj multimédií na síti bude čekat právě na tento síťový protokol,
který ale nastupuje příliš pomalu.
Aktuální projekty
HTML5 je v současné době již velice užívanou technologií a je možné se setkat s celou řadou
webových stánek, které jsou v ní vytvořené. Asi největší možnosti jsou s jejím nasazením v oblasti
aplikací a nástrojů, které mohou uživatelé interaktivně využívat. Následujících několik málo příkladů
je tak třeba vnímat spíše jako ochutnávku možností, než zcela vyčerpávající výpis.
YouTube patří mezi největší propagátory HTML5. Video je zajištěno video tagem a je uloženo ve dvou
základních formátech H.264 a WebM. Druhý je specifický formát, který využívá Google pro mobilní
přenos videa. V současnosti jde stále o testovací provoz, který si může uživatel zapnout, pokud chce,
ale funguje velice pěkně a kvalitně.
Zygote Body je 3D model člověka, se kterým lze plynule otáčet a nastavovat si, jaké vrstvy budou
viditelné a s jakou průhledností. Studovat tak lze například, jak jsou rozmístěné cévy vzhledem ke
kostře či svalům nebo cokoli dalšího. Jde o pěknou interaktivní hračku pro studenty a i učitele
anatomie.
Scribd nabízí plnou alternaci HTML5 a Flash, s tím, že první varianta je dle mého soudu rychlejší a
výkonnější. Jde o službu, která nabízí možnost publikování dokumentů a jejich následné snadné
prohlížení v okně prohlížeče (například PDF soubory). Kolem ní se již vytvořila silná komunita a tak je
možné jej vnímat jako alternativu k zavedeným SlideShare či Issuu.
LucidChart je robustní nástroj na tvorbu diagramů a schémat všeho druhu. Mimo široké palety
předdefinovaných prvků nabízí například možnosti online spolupráce více uživatelů. Možnosti
nastavené jsou relativně bohaté a patří rozhodně mezi ty nejznámější nástroje svého druhu.
Flickr Browser je jednoduchým prohlížečem, který pracuje s Flickr databází fotografií, které umožňuje
velice elegantně, rychle a snadno procházet. Ukazuje také cestu, kterou se možná bude řada
podobných aplikací ubírat – nové GUI nad stávající množinou dat či etablovanou službou, s ohledem
na specifické potřeby určité komunity.
Emberwind je povedenou plošinovkou, která plně staví na HTML5. Hráč ovládá malou postavičku
skřítka, který pomocí své mocné hole může vraždit nepřátele různého druhu, procházet jednotlivými
levely a plnit rozmanité úkoly. To vše s plnou podporou klávesnicového ovládání a dobrým příběhem,
kterému nechybí ani hudební a zvukové podkreslení.
95
Ve výčtu jednotlivých nástrojů bychom jistě mohli pokračovat ještě dlouho. Je ale zřejmé, že pro
různé online nástroje, které mají fungovat multiplatformě a na více zařízeních, je HTML5 volba velice
zajímavá a perspektivní, na které dnes stojí desítky velkých projektů a nepočítaně menších aplikací.
96
Open source
Open source jako koncept transparentní tvorby vývoje softwaru není ničím novým. Základem je
myšlenka, že by měl být kód softwaru, který je někomu nabízen či prodáván, otevřený a pochopitelný
pro další editaci. To je důležité jak pro vývojáře, který může získávat cenné podněty od komunity,
nové funkce či možnosti pro svůj nástroje, tak také pro společnosti, které mají možnost si daný
software upravit a přizpůsobovat dle vlastních potřeb, klesá riziko ukončení vývoje určité služby
hlavním vývojářem atp.
Základní knihou, která popisuje výhody a specifika vývoje aplikací formou otevřeného kódu je dílo
Erica S. Raymondse The Cathedral and the bazaar, které bylo publikováno již v roce 1999.154
Kniha
pracuje se dvěma základními koncepty toho, jak lze vyvíjet software. První cestou jsou proprietární
řešení, kdy za celým dílem stojí jasně definovaná organizace, která se snaží vytvořit co možná nejlepší
produkt. Vydávány jsou verze jen stabilní, které mohou posloužit koncovým uživatelům a přinášejí
něco skutečně nového. Periodicita je nižší, testování probíhá obvykle opět v nějaké jasně definované
uzavřené komunitě.
Oproti tomu otevřený software zpravidla vychází z myšlenky, že programátor řeší svůj problém a
s velkou pravděpodobností není sám. Nabízí své řešení k obecné diskusi a doufá, že se k němu připojí
další – ať již přidáním funkcí, testováním nebo třeba zcela jiným pohledem na řešený problém.
Primární vývojový směr je tak vývojář vývojáři. Verze mohou přicházet velice rychle za sebou, kód
testuje více lidí, obsahuje proto menší množství chyb atp. Tento princi je podobný organicky
vznikajícímu tržišti. To samozřejmě nevylučuje možnost označit určité verze jako stabilní, nebo za
svoji práci požadovat odměnu. Otevřený kód je záležitostí transparentnosti a komunity, nikoli
primárně ceny.
Z hlediska formální lze říci, že open source znamená dostupnost zdrojového kódu a splnění určitých
licenčních podmínek tak, aby bylo možné s ním dále (i když třeba s určitými omezeními) manipulovat.
Současně lze říci, že se celý fenomén stále více přesouvá do dalších oblastí lidského života – existují
open source filmy, romány, hovoří se o otevřených datech nebo o zveřejňování vědeckých výsledků,
které budou dostupné pro všechny.
154
RAYMOND, Eric. The cathedral and the bazaar.
97
Richard Stallman je zřejmě nejviditělnější osobnost Open souce komunity.155
Soudobá technická praxe
Otevřená řešení se stávají stále populárnější nejen pro vývojáře, ale především také pro konzumenty
těchto aplikací. V následujícím se pokusíme ukázat některé různé licenční podmínky, které se do něj
promítají, stejně jako základní trendy a možnosti vývoje nebo oblasti, kde se podobná řešení
efektivně uplatňují.
Z hlediska licence nestačí, aby programátor dal k dispozici veškerý zdrojový kód, ale musí splňovat
několik dalších podmínek. Nabyvatel licence musí být oprávněn počítačový program dále úplatně
i bezúplatně distribuovat, rozšiřovat jej či rozmnožovat a současně musí mít k dispozici stejná práva
ke zdrojovému kódu. Ten musí být napsán tak, aby bylo možné jej pochopit a dále upravovat.
Zakázány jsou tedy techniky, které vedou k záměrné nesrozumitelnosti kódu či šíření částečně
přeložených souborů, do kterých by bylo možné zasahovat jen s velkými obtížemi.156
Dalším fundamentálním požadavkem je absence diskriminačních opatření. Není tedy možné říci, že
pro určitou skupinu uživatelů či formy využití je daný software otevřený a pro jiné ne. Z tohoto
hlediska lze dovodit, že vývojáři nepřísluší hodnotit chování koncových uživatelů na úrovni licenčních
ujednání.
Další podmínky se pak týkají šíření softwaru – předně se musí licence vázat pouze na jednu aplikaci a
není možné pomocí licencí vytvářet vazby mezi různými programy.157
Odvozený software musí mít
155
Richard Stallman. Wikipedia.
156
STALLMAN, Richard, et al. The GNU manifesto.
157
Například nelze říci, že kancelářský balík bude open source jen tehdy, když bude uživatel používat také
konkrétní webový prohlížeč nebo si koupí určitou doplňkovou službu.
98
stejnou licenci jako ten zdrojový. Tímto je pak chráněna samotná možná existence open source
řešení. Mezi nejznámější příklady konkrétních licencí patří GNU GPL, GNU LGPL, MIT license, Apache
License 2.0, Eclipse Public License atp. Obecně lze říci, že jich existují desítky a liší se v různých
detailech, které není vhodné brát na lehkou váhu.158
Zajímavou otázkou v tomto kontextu může být, jak lze na podobném programovém vybavení vydělat.
Možností je samozřejmě více a vždy záleží na druhu vyvíjeného softwaru. První variantou, která je
zřejmě nejčastější, je prodej doplňkových služeb – může jít o technickou podporu, pronájem cloudu
nebo další zpoplatněné funkce, které se nacházejí mimo samotný nástroj. Lze ale také model
financování založit na dobrovolném dárcovství, reklamě nebo třeba prodeji obsahu, což je dnes asi
cesta nejpopulárnější.
Je třeba zdůraznit, že na vývoji open source nástrojů lze vydělávat, ač častý stereotypní názor hlásá
opak. Příkladem může být společnost Red Hat, která má roční obrat přes jednu miliardu dolarů, a jen
za třetí čtvrtletí roku 2012 vykázala čistý zisk ve výši 38,2 milionů dolarů (asi 0,19 dolaru na akcii), což
představuje 46% meziroční nárůst. Společnost vyvíjí serverový operační systém a další enterprice
řešení.
Častým zdrojem financování je také institucionární podpora či prostý nadšenecký pokyn, které nemají
od počátku žádný ekonomický potenciál. Můžeme se setkat s modelem konzultační tvorby, kdy pro
jednu nebo více organizací je vyvíjena nějaká aplikace formou otevřeného kódu. Vychází se obvykle
z myšlenky, že samostatný vývoj otevřeného řešení je rychlejší, levnější a lze jej snáze odladit, což je
pro zadavatele důležité kritérium.
Častým modelem financování je také dvoukolejní vývoj, kdy programátor v jednu verzi aplikace nabízí
jako bezplatnou a otevřenou a druhou s funkcemi navíc jako placenou. Příkladem může být opět
společnost Red Hat, která testuje nové funkce a vlastnosti na distribuci Fedora a zapracovává je do
placené firemní distribuce Red Hat Enterprise Linux, která mimo funkcí navíc disponuje uživatelskou
podporou a dalšími benefity.
Open source není ale jen otázkou módní vlny či bezplatného používání, ale také modelu vývoje, který
se obvykle značně liší od katedrálního modelu, na který jsou vývojáři zvyklí. Představa řízeného
vývoje, s jasnou strukturou a organizací, kterou zná většina vývojářů v případě otevřeného modelu,
většinou úplně nefunguje. Vývojář se stává postupem času spíše mentorem, koordinátorem a lídrem
celé skupiny vývojářů, který musí udržet celý proces tvorby v chodu. Je třeba, aby komunikoval
s dalšími programátory, grafiky či testery, staral se o dobrou implementaci funkcí či marketing.
Z programátora se tak stále více stává manažer, který řídí tým, kterému obvykle nic neplatí.159
Na druhou stranu je častý také hybridní model, který je vidět u větších projektů či firem jako je
Firefox či Red Hat, které disponují určitým množstvím klasických vývojářů, ke kterým se připojují další
vývojáři z komunity. Náročné části kódu na vývoj, matematický popis a týmovou spolupráci jsou
obvykle v takovém případě řešeny interně a dílčí moduly a přidané funkce s testováním zajišťuje
komunita.
158
Určitý seznam je například na OSI. Open Source Licenses.
159
RAYMOND, Eric. The cathedral and the bazaar.
99
Tento aspekt struktury firem, respektive modelu vývoje mezi katedrálou a tržištěm je velice důležitý a
je vždy vhodné uvážit, co konkrétně pro daný projekt je či není potřeba. Vhodně zvolená architektura
umožní podstatně lepší vývoj a nabídne kvalitnější výsledky.
Pro otevřený vývoj je vhodné používat dostatečně robustní webové prostředí. Dříve běžně užívaná
webová stránka a e-mailová konference se jeví jako nepříliš efektivní a tak se zcela přirozeně objevují
nástroje, které umožní lepší týmovou spolupráci, sledování změn a dohled nad celým projektem.
Zřejmě nejznámějším a největším nástrojem tohoto typu je SourceForge, který nabízí nejen možnost
ukládat aktuální verzi programu, ale podporuje pokročilé nástroje pro verzování, diskusní fórum,
systém na sledování změn a řadu dalších funkcí.
Dalším podobným nástrojem je Google Code, který nabízí mimo jiné také robustní API či Launchpad.
Je vždy třeba zvážit, jak robustní nástroje se bude pro vývoj daného produktu hodit a zda je vhodné
využít API, které by vývoj mohlo značně ulehčit. Online programovací nástroje, které složí například
pro vývoj aplikací v AJAX, jsou z tohoto hlediska také velice praktické, protože umožňují okamžitou
online spolupráci, ladění a diskusi nad problémem.
Open source umožňuje dobré přizpůsobení aplikace potřebám zákazníka – není problém
implementovat jeho vlastní moduly nebo mu na míru danou aplikaci upravit. Ostatně jde o jeden
z častých modelů vývoje, kdy nové funkce a modul základní (core) aplikace vznikají na přání klientů a
jsou pak dále nabízena uživatelům.
Právě tato možnost přizpůsobení a do určité míry ztráta závislosti na dodavateli aplikaci zvyšuje
atraktivitu produktu a při dodržení norem umožňuje snadný transfer dat mezi jednotlivými zařízeními
a programy. To je také důvod, proč nejrůznější úřady všude ve světě přecházejí hromadně na open
source řešení. Nejde jen o úsporu, ale především o nezávislost, možnost přizpůsobení si systému dle
vlastních potřeb a modularitu.
Lze bez nadsázky říci, že open source se stává módou, která může znamenat významnou konkurenční
výhodu. Právě móda je jedním z nejdůležitějších parametrů, které lze v oblasti ICT sledovat – podléhá
mu mnohem více než svět oblečení či hraček. Jde o skutečnost, kterou by měl mít každý vývojář
v oblasti open source na paměti, když se pouští do vývoje libovolného produktu.
Open source programování má v obecné rovině často silně modulární charakter, což může být jak
pozitivní, z hlediska nákladů a rychlosti programování, tak také svazující, pokud jde o dlouhodobou
udržitelnost a rozvoj. Platí totiž pravidlo, že většinu problémů již před námi někdo řešil a výsledek
jeho snažení si můžeme, díky svobodným licencím, snadno importovat do vlastního díla. Velký kus
práce tak za nás udělají druzí a programování ve světě open source je často přirovnáváno k puzzle –
stačí najít vhodné kousky a dobře je pospojovat. Skutečně nové práce je často nutné odvést relativně
málo.160
Na tento princip tvorby by vývojáři v případě open source technologií měli pamatovat již v počátcích
tvorby aplikací – na jedné straně proto, aby si ušetřili práci s tvorbou algoritmů či celých knihoven,
které již někdo vytvořil, ale také proto, aby byli schopni jednotlivé balíčky efektivně do aplikace
začleňovat. Školní poučky o tom, jak by měl vypadat dobrý programátorský postup ,zde získává zcela
jasný význam. Modularizace je nutná pro efektivní práci s již hotovými výtvory, poznámkování pro
160
FOGEL, Karl. Producing open source software: How to run a successful free software project.
100
pochopení algoritmů a jejich sdílení s dalšími vývojáři, efektivita kódu je při modulární výstavbě
kritickou komponentou atp.
Silné stránky a možnosti
Některé silné stránky jsme již naznačili. Obecně je možné je rozdělit do dvou velkých skupin. První
jsou výhody pro vývojáře a druhé pro koncové uživatele. Přitom je třeba říci, že výhody pro
koncového uživatele jsou z hlediska vývoje softwaru také důležité, protože by měly být součástí
marketingové strategie a celkové komunikace se zákazníky.
Pokud jde o výhody pro programátora, tak prvním významným momentem je možnost používat cizí
otevřené kódy a řešení. Nejde o prosté kradení nápadů či postupů druhých, ale o skutečnost, že řada
funkcí se v programech opakuje. Příkladem mohou být algoritmy pro hledání jednoslovných
předložek, které potřebuje každý textový editor, aby nezůstávaly na koncích řádků nebo třeba
slovníky pro kontrolu pravopisu. Podobných příkladů lze najít desítky. To co by jedna společnost
vyvíjela měsíce či roky je často k dispozici v hotové, odzkoušené formě.
Tato skutečnost umožňuje v relativně velice krátkém čase vybudovat i značně robustní aplikace
s velkým množstvím funkcí a nástrojů, které jsou umně poslepovány dohromady. Současně tyto
možnosti vedou vývojáře k tomu, aby kód tvořili přehledně a pochopitelně, právě s ohledem na
možný import cizích komponent. Dodržování pravidel programování je tak významným vedlejším
efektem, který může v konečném důsledku přinášet velké finanční úspory.
S rychlostí vývoje souvisí také možnost zapojení komunity. Pokud je pro ni projekt zajímavý a vývojář
s ní umí pracovat, lze zásadním způsobem akcelerovat vývoj softwaru i v oblastech, které ještě nejsou
hotové. Řada lidí se připojí k projektu proto, že dělají dobrou či zajímavou věc, ale také mohou být
motivováni skutečností, že daný problém budou někdy potřebovat vyřešit také. Týmová spolupráce
je proto levnější a rychlejší také pro ně samotné.161
Ač jedním z nejčastěji udávaných slabých míst otevřeného softwaru bývá považována bezpečnost,
zkušenost ukazuje, že je situace jiná. Díky průhlednosti kódu je chybovost proprietárního i
otevřeného softwaru nejhůře stejná. Pokud tedy nedochází k vývoji aplikací s krizovou důležitostí
z hlediska bezpečnosti, jako je vojenský či bankovní software, lze říci, že bezpečnost patří mezi klady.
Určitou výhodou může být také internacionalizace projektů. Díky otevřenosti kódu a propojeností
velkých nástrojů na organisaci vývoje, dochází často k tvorbě mezinárodních vývojových komunit.
Prostorová vzdálenost nepředstavuje žádný problém a propojení odborníků z různých částí světa
může přinášet řadu benefitů. Tím nejdůležitějším je, že v mezinárodním prostředí je obvykle větší
šance na nalezení osob, které mají stejný problém. Tým pro vývoj se tak vytváří snáze, než v menších
centrech. Mezi další výhody pak patří různorodost přístupů k řešení problému, jeden z důležitých
aspektů efektivního vývoje, odlišnost v dílčích potřebách a požadavcích na aplikaci, což může pomoci
ke komplexnímu řešení nebo snadná lokalizace softwaru do národních jazyků zainteresovaných
vývojářů.
Nezanedbatelné jsou také výhody pro koncové zákazníky. Předně je to snížení závislosti na jednom
dodavateli. Do velké míry může ve vývoji či úpravách systému pokračovat kdokoli jiný, aniž by bylo
třeba hradit náklady na vývoj již hotových komponent. Jde o relativně důležitou skutečnost, kterou
161
HARS, Alexander; OU, Shaosong. Working for free? Motivations of participating in open source projects.
101
není možné marginalizovat. S tím souvisí také možný transport dat mezi aplikacemi. Díky jasné
struktuře a otevřenosti lze snadno vyměnit jednu aplikaci za druhou, což v případě proprietárního
softwaru není běžně možné.
Pro uživatele je důležité také to, že si může aplikaci kdykoli upravit, rozšířit či pozměnit podle
vlastního přání a potřeb. Je relativně obvyklé, že komerční firmy financují open source vývoj
komponent do systému, který potřebují a používají. Díky této možnosti úpravy softwaru podle
aktuálních potřeb lze zásadním způsobem zvyšovat efektivitu. Nejčastějším a nejhlasitějším
argumentem je pak cena samotného softwaru, která je nulová a platí se jen za přidané služby či data.
Slabé stránky a možné problémy
Jedním z nejvíce diskutovaných problémů či nedostatků v oblasti vývoje open source aplikací je
otázka ceny. Pokud máme aplikaci, jejíž vývoj stále nemalé množství času a peněz, může snadno dojít
k tomu, že ji převezme někdo jiný a bude nabízet za nižší cenu, neboť přijde o nutnost počátečních
investic, nebo sám produkt zlepší, takže bude konkurenceschopnější, nežli původní program. Na to
zcela přirozeně navazuje problém, kolik je vlastně možné si za takový software účtovat a jaké další
služby k němu musí být připojené, aby měl vůbec šanci na funkční obchodní model.
Takto vytvořená expozice problému jednoznačně identifikuje jednu z možných obav. Je ale třeba říci,
že svět softwaru se stále více posouvá do oblasti služeb. Uživatelé jsou stále více zvyklí platit za obsah
nebo servis, než za samotný bázový produkt. Příkladem může být úspěšně fungující operační systém
Android, který je bezplatný, ale společnosti Google generuje nemalý zisk především za prodej
aplikací, hudby, filmů a knih v integrovaném obchodu s aplikacemi. Podobným příkladem by mohl být
třeba Amazon a řada dalších firem.
Bez zdarma dodaného softwaru by nebylo možné prodávat další služby či obsah, které mají velkou
přidanou hodnotu. S trochou nadsázky tento posun představuje podobnou diferenci, jaká je mezi
výrobcem válcovaného plechu a automobilu. Marže i přidaná hodnota automobilky je přirozeně
mnohem vyšší.
Podobným častým řešením jsou například otevřené cloudové aplikace, které získávají prostředky
především z pronájmu výkonu svých serverů. Samotný software je zdarma, může si jej nainstalovat
každý, ale provoz vlastního serveru není laciný, je nutná správa, konfigurace. Proto řada subjektů volí
pronájem, na kterém vývojářské společnost vydělává, aniž by ztratila výhody vývoje open source
aplikací. Ač to na první pohled může působit podivně, právě takové modely patří a zřejmě i budou
patřit mezi nejúspěšnější. Rizikem může být nezvládnutí marketingu či nastavení finanční náročnosti.
Druhým velkým rizikem může být do značné míry upravená role vývojáře, který nejen programuje,
ale musí se starat také o to, aby jeho projekt fungoval po všech dalších stránkách. Komunikace
s dalšími lidmi si zabere nemálo času, takže řada těch, kteří s programováním v open source začínali,
dnes již nepíše téměř vůbec, a přesunula se do role manažerů.
Nejde přitom jen o problémy související se ztrátou oblíbené činnosti, ale především o nároky na
dovednosti a znalosti, které většina programátorů nemá. To co se učí manažeři pět let ve škole, je
třeba zvládnout nějak rychleji a intuitivněji. V takovém případě se většina lidí neubrání řadě chyb,
které mohou poškozovat celý programátorský záměr. Organizace virtuálních týmu, dobrá
komunikace s testery i vývojáři, nutnost motivovat všechny, kdo se na vývoji podílejí, může při
102
nedobrém osobnostním profilu programátora či absence manažerských dovedností nakonec celý
vývoj paradoxně brzdit a zpomalovat. Při názorových rozporech pak často dochází k rozpadům či
štěpení týmů.162
Problémem jsou také licence. Ač v zásadě sledují velice podobné ideály, v drobnostech se liší a nejsou
obecně příliš kompatibilní. Nelze ani říci, že by existoval nějaký jednoznačný žebříček, který by je řadil
podle striktnosti, takže v případě, že potřebuje programátor kombinovat řešení různých osob, může
se dostat do složitých licenčních problémů. Také volba vlastní licence se tak ukazuje nikoli jako
marginální záležitost, ale jako to, co může mít velký dopad na praktický vývoj. Licencí jsou přitom
desítky a není možné se v nich vždy snadno zorientovat. Samozřejmostí by měla být znalost těch
základních, ale v případě exotických jako jsou ISC License (ISC) Multics License (Multics) či NASA Open
Source Agreement 1.3 (NASA-1.3) je velice složité vyhledat a právně zajistit vzájemnou kompatibilitu.
Konzultace s právními odborníky je v takovém případě zcela nezbytná a často nákladná, což opět
může pozdržet vývoj či zveřejnění nové verze systému.
Nezanedbatelným rizikem je také možnost, že nedojde k vytvoření komunity, která by se na vývoji a
testování softwaru podílela. V takovém případě padá velká část výhod, které s sebou toto vývojářské
paradigma přináší.
Aktuální projekty
Open source stal masivním hnutím, ke kterému se dnes připojují stovky či tisíce vývojářů a aplikací.
Z těch nejznámějších lze vyzvednout například dvojici operačních systémů Linux a Android. Linux je
dnes nejrozšířenějším operačním systémem pro servery, ale hojně se užívá také ve vestavěných
zařízeních či chytrých televizích. Společné pro všechny distribuce je jádro, nad kterým pak běží
grafické prostředí (například Gnome, KDE atp.), ovládaní a ovladače či aplikace. Řada uživatelů pak
má také Linux nainstalovaný na svých pracovních stanicích.
Android nabízí zcela jiný pohled na open source vývoj. Stojí za ním Google, který jej organizuje,
financuje, hledá pro něj koncová zařízení, stará se o marketing atp. Přínos komunity je zde spíše
menší, ale otevřenost usnadňuje vývoj a zlepšuje obraz celého projektu. Oproti rozdrobeným
linuxovým distribucím je zde jedna jasná linie, kterou garantuje jedna společnost.163
Dalším známým příkladem je OpenOffice.org což je kancelářský balík, který má konkurovat MS Office.
Poté, co byla společnost Sun koupena Oracle, došlo k postupné stagnaci projektu a jeho fragmentaci.
Dnes je vývoj zase obnoven díky odštěpení části vývojářů a přispěvatelů k projektu LibreOffice. Jde o
pěknou ukázku toho, kdy svoboda licence a fragmentace může projekt zachránit.
Známé je také prostřední pro e-learning Moodle, které patří mezi nejpoužívanější a nejoblíbenější na
světě. Zdrojem financí je pronájem samotného názvu produktu pro školící a vzdělávací aktivity.
Servis, který chce názvu Moodle využívat, musí platit. Díky masovému rozšíření jde opět o velice
zajímavý a životaschopný model financování.164
162
MONTOYA-WEISS, Mitzi M.; MASSEY, Anne P.; SONG, Michael. Getting it together: Temporal coordination
and conflict management in global virtual teams.
163
Google. Welcome to the Android Open Source Project!.
164
Srov. Moodle licence.
103
Příkladem z druhé strany spektra může být grafický editor GIMP, který měl konkurovat Photoshopu.
Ač jde o funkční, robustní a relativně známý nástroj, potýká se s neustálými problémy – velice malá
vývojářská komunita, pomalý vývoj, špatné grafické rozhraní, absence obchodního modelu atp. Ani
dobrá myšlenka a nesmírně kvalitní produkt tak nemusí nutně znamenat úspěch.
Vybraná literatura k jednotlivým trendům
Big data
WEINBERG, Paul N, James R GROFF, Andrew J OPPEL a James R GROFF. SQL, the complete reference.
3rd ed. New York: McGraw-Hill, c2010, xxviii, 882 p. ISBN 00-715-9255-5.
Seriál Nerelační databáze. Zdroják [online]. 2011 [cit. 2012-09-05]. Dostupné z WWW:
EELCO PLUGGE, Peter Membrey and Tim Hawkins. The definitive guide to MongoDB: the noSQL
database for cloud and desktop computing. New ed. New York, NY: Apress, 2010. ISBN 978-143-
0230-519.
FRY, Ben. Visualizing data. 1st ed. Sebastopol: O´Reilly, 2007, xiii, 366 s. ISBN 05-965-1455-7.
APACHE. Welcome to Apache™ Hadoop®! [online]. 2012 [cit. 2013-02-12]. Dostupné z WWW:
http://hadoop.apache.org/ .
DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat. SystemOnline
[online]. 2011 [cit. 2013-01-09]. Dostupné z
.
CAPLAN, Priscilla. Metadata fundamentals for all librarians. Chicago: American Library Association,
2003, ix, 192 p. ISBN 08-389-0847-0.
HOWE, Doug, et al. Big data: The future of biocuration. Nature, 2008, 455.7209: 47-50.
BOYD, Danah; CRAWFORD, Kate. Six provocations for big data. 2011.
LOHR, Steve. The age of big data. New York Times, 2012, 11.
ZIKOPOULOS, Paul, et al. Understanding big data: Analytics for enterprise class hadoop and streaming
data. McGraw-Hill Osborne Media, 2011.
LAURILA, Juha K., et al. The mobile data challenge: Big data for mobile computing research. In:
Proceedings of the Workshop on the Nokia Mobile Data Challenge, in Conjunction with the 10th
International Conference on Pervasive Computing. 2012. p. 1-8.
AGRAWAL, Divyakant; DAS, Sudipto; EL ABBADI, Amr. Big data and cloud computing: current state
and future opportunities. In: Proceedings of the 14th International Conference on Extending
Database Technology. ACM, 2011. p. 530-533.
Virtualizace
GOLDEN, Bernard. Virtualization For Dummies. Wiley, 2013. ISBN 9780470277195.
104
HALTER, Chris Wolf and Erick M. Virtualization from the desktop to the enterprise. Berkeley, CA:
Apress, 2005. ISBN 978-143-0200-277.
HUBER, Thomas. Virtualizace IT. SystemOnline [online]. 2012 [cit. 2013-06-20]. Dostupné z:
http://www.systemonline.cz/virtualizace/virtualizace-it.htm
KOLLARIKOVÁ, Kateřina. Hardwarové principy virtualizace. 2011.
KUBÁT, Ondřej. Virtualizace versus běžná instalace systémů a aplikací. 2012.
KUSNETZKY, Dan. Virtualization: a manager's guide. Sebastopol, CA: O'Reilly, c2011, ix, 58 p. ISBN 14-
493-0645-4.
MATYSKA, Luděk. Techniky virtualizace počítačů (2). 2007.
MATYSKA, Luděk. Virtualizace výpočetního prostredí. Zpravodaj ÚVT, 2007, 9-11.
MENKEN, Ivanka a Gerard BLOKDIJK. A complete guide on virtualization. [Australia: Emereo Pty Ltd],
c2008, 199 s. ISBN 978-1-921523-91-5.
Sémantické technologie: web a desktop
BERNERS-LEE, Tim, et al. The semantic web. Scientific american, 2001, 284.5: 28-37.
HENDLER, James. Agents and the semantic web. Intelligent Systems, IEEE, 2001, 16.2: 30-37.
MCILRAITH, Sheila A.; SON, Tran Cao; ZENG, Honglei. Semantic web services. Intelligent Systems,
IEEE, 2001, 16.2: 46-53.
ANKOLEKAR, Anupriya, et al. DAML-S: Web service description for the semantic web. In: The
Semantic Web—ISWC 2002. Springer Berlin Heidelberg, 2002. p. 348-363.
BERNERS-LEE, Tim. Semantic web road map. 1998.
SAUERMANN, Leo; BERNARDI, Ansgar; DENGEL, Andreas. Overview and Outlook on the Semantic
Desktop. In: Semantic Desktop Workshop. 2005.
AUMÜLLER, David; AUER, Sören. Towards a Semantic Wiki Experience-Desktop Integration and
Interactivity in WikSAR. In: Semantic Desktop Workshop. 2005. p. 2005-2012.
DECKER, Stefan; FRANK, Martin R. The Networked Semantic Desktop. In: WWW Workshop on
Application Design, Development and Implementation Issues in the Semantic Web. 2004. p. 1613-
0073.
SAUERMANN, Leo. The semantic desktop-a basis for personal knowledge management. In:
Proceedings of the I-KNOW. 2005.
ČERNÝ, Michal. Budoucnost sémantického desktopu. Inflow: information journal[online]. 2012, roč.
5, č. 1 [cit. 2012-01-07]. Dostupný z WWW: .
ISSN 1802-9736.
105
ČERNÝ, Michal. Stručný úvod do konceptu sémantického desktopu. Inflow: information
journal [online]. 2011, roč. 4, č. 12 [cit. 2011-12-07]. Dostupný z WWW:
. ISSN 1802-9736.
ČERNÝ, Michal. Sémantický web – jak dál?. Ikaros [online]. 2009, roč. 13, č. 5. [cit. 2009-05-08].
Dostupný na World Wide Web: . URN-NBN:cz-ik5437. ISSN 1212-
5075.
W3C. W3C Semantic Web Activity [online]. 2009 [cit. 2009-04-15]. Anglicky. Dostupný z WWW:
.
MATULÍK, Petr, PITNER, Tomáš. Sémantický web a jeho technologie. Zpravodaj ÚVT MU. 2004, roč.
XIV,, č. 3, s. 15-17. Dostupný z WWW: . ISSN
1212-0901.
KOSEK, Jiří. Lepší vyhledávání na webu. Domovská stránka Jirky Koska - "VŠE O WWW" [online]. 2008
[cit. 2009-03-26]. Dostupný z WWW
.
GROZA, Tudor , et al. Ir.library.nuigalway.ie [online]. 2007 [cit. 2011-11-19]. The NEPOMUK Project On
the way to the Social Semantic Desktop . Dostupné z WWW:
.
VADINSKÝ, Ondřej. Abc Linuxu [online]. 2010 [cit. 2011-11-19]. Nepomuk-KDE: Sémantický desktop
pro Linux. Dostupné z WWW: .
ISSN 1214-1267.
Zpracování přirozeného jazyka
ČERNÝ, Michal. Budoucnost sémantického desktopu. Inflow: information journal[online]. 2012, roč. 5,
č. 1 [cit. 2012-01-07]. Dostupný z WWW: .
ISSN 1802-9736.
Edited by MADELEINE BATES, Ralph M. Challenges in natural language processing. 1. paperb. version.
Cambridge [England]: Cambridge University Press. ISBN 978-052-1032-261.
JACKSON, Peter a Isabelle MOULINIER. Natural language processing for online applications: text
retrieval, extraction and categorization. 2nd rev. ed. Philadelphia: John Benjamins Pub., c2007, x, 231
p. Natural language processing (Amsterdam, Netherlands), v. 5. ISBN 90-272-4993-8.
KUMAR, Ela. Natural language processing. New Delhi: I.K. International Publishing House. ISBN 978-
938-0578-774.
PALA, Karel a Pavel RYCHLÝ a Pavel ŠMERK. Automatic Identification of Legal Terms in Czech Law
Texts. In Semantic Processing of Legal Texts. Berlin: Springer, 2010. od s. 83-94, 12 s. ISBN 978-3-642-
12836-3.
PALA, Karel a Pavel RYCHLÝ a Pavel ŠMERK. Morphological Analysis of Law texts. In SOJKA, Petr a Aleš
HORÁK a Petr SOJKA. First Workshop on Recent Advances in Slavonic Natural Languages Processing,
RASLAN 2007. Brno: Masaryk University, 2007. od s. 21-26, 7 s. ISBN 978-80-210-4471-5.
106
PALA, Karel. Počítačové zpracování přirozeného jazyka. NLP FI MU [online]. 2000 [cit. 2012-12-27].
Dostupné z: nlp.fi.muni.cz/poc_lingv/pala_zprac.pd
SOJKA, Petr a Ivan KOPEČEK a Karel PALA. Text, Speech and Dialogue: 9th International Conference
TSD 2006, Brno, Czech Republic, September 11-15, 2006. Edited by Sojka P., Kopeček I., Pala K. prvni.
Berlin Heidelberg: Springer Verlag, 2006. 721 s. 9th International Conference, TSD 2006, Brno, Czech
Republic, September 11-15, 2006, Proceedings. ISBN 3-540-39090-1.
WILLIAMS, Jason D. a Steve YOUNG. Partially observable Markov decision processes for spoken
dialog systems. Computer Speech. 2007, roč. 21, č. 2, s. 393-422. ISSN 08852308. Dostupné z:
http://linkinghub.elsevier.com/retrieve/pii/S0885230806000283
Počítačové zpracování emocí
JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí [online]. 2007 [cit. 2013-07-12]. Diplomová práce.
Masarykova univerzita, Fakulta informatiky. Vedoucí práce Ivan Kopeček. Dostupné z:
.
TAO, Jianhua; TAN, Tieniu. Affective Computing: A Review. In: Affective Computing and Intelligent
Interaction: First International Conference, ACII 2005, Beijing, China, October 22-24, 2005.
Proceedings. 1st edition. Berlin Heidelberg: Springer-Verlag, 2005, s. 981–995. Dostupné z:
http://www.springerlink.com/content/r153122u1vn0. ISBN 3-540-29621-2, ISSN 0302-9743.
PICARD, Rosalind W. Affective Computing. M.I.T Media Laboratory Perceptual Computing Section
Technical Report. 1995, No. 321.
WEINSTEIN, Norman. Thinking about emotional machines. Technology Review. Jan/Feb 1998, s. 65-
66. ISSN 0040-1692.
KOPEČEK, Ivan. Počítačové zpracování emocí: Affective computing [online]. [cit. 2011-12-04].
Dostupné z: http://www.fi.muni.cz/~kopecek/socin7_affective_computing.ppt
KOPEČEK, Ivan. Personality and Emotions - Finite State Modelling by Dialogue Automata. In
Proceedings of UM 2001 Workshop on Attitudes, Personality and Emotions in User-Adapted
Interaction. Bari: Universitz of Bari, 2001. s. 1-6.
KOPEČEK, Ivan, Karel PALA a Markéta STRAŇÁKOVÁ-LOPATKOVÁ. Ambiguity Problems in HumanComputer
Interaction. In Universal Access in HCI. London: Lawrence Erlbaum Associates, Publishers,
2001. s. 486-489. Volume 3. ISBN 0-8058-3609-8.
PŘIKRYL, Zdeněk. Modelování osobnosti [online]. 2008 [cit. 2013-07-12]. Diplomová práce.
Masarykova univerzita, Fakulta informatiky. Vedoucí práce Ivan Kopeček. Dostupné z:
.
ORTONY, Andrew; TURNER, Terence J. What's basic about basic emotions?. Psychological review,
1990, 97.3: 315.
EKMAN, Paul. Basic emotions. Handbook of cognition and emotion, 1999, 4: 5-60.
107
PICARD, Rosalind W. Affective computing: challenges. International Journal of Human-Computer
Studies, 2003, 59.1: 55-64.
PICARD, Rosalind W.; COMPUTING, Affective; EDITURA, M. I. T. MIT Press. Cambridge, MA, 1997.
IPv6
ANTOŠ, David. Úvod do IPv6. Zpravodaj ÚVT MU. 2008, roč. XVIII, č. 3, s. 7-10. ISSN 1212-0901.
AMOSS, John a Daniel MINOLI. Handbook of IPv4 to IPv6 transition: methodologies for institutional
and corporate networks. Boca Raton: Auerbach Publications, c2008, xviii, 227 p. ISBN 08-493-8516-4.
KOODLI, Rajeev S a Charles E PERKINS. Mobile inter-networking with IPv6: concepts, prociples, and
practices. Hoboken: John Wiley, 2007, xxix, 365 s. ISBN 978-0-471-68165-6.
HUITEMA, Christian. IPv6--the new Internet protocol. 2nd ed. Upper Saddle River, NJ: Prentice Hall
PTR, c1998, viii, 247 p. ISBN 01-385-0505-5.
HAGEN, Silvia. IPv6 essentials. 2nd ed. Beijing: O´Reilly, 2006, 418 s. ISBN 05-961-0058-2.
HUSTON, Geoff a George MICHAELSON. Counting DNSSEC. Potaroo.net [online]. 2012 [cit. 2012-12-
17]. Dostupné z: http://www.potaroo.net/ispcol/2012-10/counting-dnssec.html
Cisco IPv6 Lab: IPv6 Deployment. Cisco [online]. 2012 [cit. 2012-12-17]. Dostupné z:
http://6lab.cisco.com/stats/
YORK, Dan. Migrating applications to IPv6. 1st ed. Sebastopol, Calif.: O'Reilly, c2011, xxi, 34 p. ISBN
14-493-0787-6.
SATRAPA, Pavel. IPv6: internetový protokol verze 6. 3., aktualiz. a dopl. vyd. Praha: CZ.NIC, c2011,
407 s. CZ.NIC. ISBN 978-80-904248-4-5.
PRŮŠA, Jiří. IPv6 v Česku měsíc po „dni D“. Connect [online]. 2012 [cit. 2012-12-17]. Dostupné z:
http://connect.zive.cz/bleskovky/ipv6-v-cesku-mesic-po-dni-d/sc-321-a-164455
Internet věcí
ATZORI, Luigi; IERA, Antonio; MORABITO, Giacomo. The internet of things: A survey. Computer
Networks, 2010, 54.15: 2787-2805.
WELBOURNE, Evan, et al. Building the internet of things using RFID: the RFID ecosystem experience.
Internet computing, IEEE, 2009, 13.3: 48-55.
SARMA, Amardeo C.; GIRÃO, João. Identities in the future internet of things. Wireless personal
communications, 2009, 49.3: 353-363.
WAHLSTER, Wolfgang. SemProM: Foundations of Semantic Product Memories for the Internet of
Things. Springer, 2013.
AGGARWAL, Charu C.; ASHISH, Naveen; SHETH, Amit. The Internet of Things: A Survey from the DataCentric
Perspective. In: Managing and Mining Sensor Data. Springer US, 2013. p. 383-428.
108
PERERA, Charith, et al. Context-aware sensor search, selection and ranking model for internet of
things middleware. arXiv preprint arXiv:1303.2447, 2013.
GARCIA-MORCHON, Oscar, et al. Security Considerations in the IP-based Internet of Things. 2013.
ZHOU, Linli, et al. Applications of Internet of Things in the Facility Agriculture. In: Computer and
Computing Technologies in Agriculture VI. Springer Berlin Heidelberg, 2013. p. 297-303.
SEDLÁK, Jan. Internet věcí bude bilionový byznys. I pro české firmy. Connect [online]. 2013 [cit. 2013-
07-12]. Dostupné z: http://connect.zive.cz/clanky/internet-veci-bude-bilionovy-byznys-i-pro-ceske-
firmy/sc-320-a-169420
MICHAL, Černý. Internet věcí: výzva pro business i vývojáře. Root [online]. 2013 [cit. 2013-07-12].
Dostupné z: http://www.root.cz/clanky/internet-veci-vyzva-pro-business-i-vyvojare/
Rozšířená realita
CASCALES, Antonia, et al. An Experience on Natural Sciences Augmented Reality Contents for
Preschoolers. In: Virtual, Augmented and Mixed Reality. Systems and Applications. Springer Berlin
Heidelberg, 2013. p. 103-112.
JOHNSON, Adrian S.; SUN, Yu. Spatial Augmented Reality on Person: Exploring the Most Personal
Medium. In: Virtual Augmented and Mixed Reality. Designing and Developing Augmented and Virtual
Environments. Springer Berlin Heidelberg, 2013. p. 169-174.
GOFFREDO, M., et al. 3D Reaching in Visual Augmented Reality Using KinectTM: The Perception of
Virtual Target. In: Converging Clinical and Engineering Research on Neurorehabilitation. Springer
Berlin Heidelberg, 2013. p. 711-715.
LIVINGSTON, Mark A., et al. Basic Perception in Head-worn Augmented Reality Displays. In: Human
Factors in Augmented Reality Environments. Springer New York, 2013. p. 35-65.
TERNIER, Stefaan, et al. Mobile augmented reality with audio. Supporting fieldwork of Cultural
Sciences students in Florence. 2013.
FRITZ, Jan, et al. Augmented reality visualisation using an image overlay system for MR-guided
interventions: technical performance of spine injection procedures in human cadavers at 1.5 Tesla.
European radiology, 2013, 23.1: 235-245.
MICK, Jason L.; WINELAND, Joel. Using Augmented Reality To Create An Interface For Datacenter And
Systems Management. U.S. Patent No 20,130,031,202, 2013.
MICHAL, Černý. Rozšířená realita: od mobilního telefonu k chytrým brýlím. Root [online]. 2013 [cit.
2013-07-12]. Dostupné z: http://www.root.cz/clanky/rozsirena-realita-od-mobilniho-telefonu-k-
chytrym-brylim/
Complex event processing
BUCHMANN, Alejandro; KOLDEHOFE, Boris. Complex event processing. it-Information Technology,
2009, 51.5: 241-242.
109
WU, Eugene; DIAO, Yanlei; RIZVI, Shariq. High-performance complex event processing over streams.
In: Proceedings of the 2006 ACM SIGMOD international conference on Management of data. ACM,
2006. p. 407-418.
LUCKHAM, David C. The power of events. Reading: Addison-Wesley, 2002.
LUCKHAM, David C.; FRASCA, Brian. Complex event processing in distributed systems. Computer
Systems Laboratory Technical Report CSL-TR-98-754. Stanford University, Stanford, 1998, 28.
VAN VLIET, M., et al. Complex Event Processing. 2007.
GRAY, Jim; REUTER, Andreas. Transaction processing. Kaufmann, 1993.
CHAKRAVARTHY, Sharma. Stream data processing: a quality of service perspective: modeling,
scheduling, load shedding, and complex event processing. Springer, 2009.
RUSSOM, Philip. Big data analytics. TDWI Best Practices Report, Fourth Quarter, 2011.
DERAKHSHAN, Roozbeh; ORLOWSKA, Maria E.; LI, Xue. RFID data management: challenges and
opportunities. In: RFID, 2007. IEEE International Conference on. IEEE, 2007. p. 175-182.
ETZION, Opher a Peter NIBLETT. Event Processing in Action. : Manning, 2010. 384 s. ISBN 978-1-
935182-21-4.
LUCKHAM, David C. The power of events :an introduction to complex event processing in distributed
enterprise systems. Boston: Addison-Wesley, 2002. xix, 376 s. ISBN 0201727897.
KARPÍŠEK, Jiří. Praktický úvod do Complex Event Processing [online]. 2011 [cit. 2013-07-12].
Diplomová práce. Masarykova univerzita, Fakulta informatiky. Vedoucí práce Michal Oškera.
Dostupné z: .
GREGOR, Jiří a Martin HOLUB. Nástroje complex event processing jsou klíčem k efektivnímu
rozhodování v reálném čase. SystemOnline [online]. 2012 [cit. 2013-07-12]. Dostupné z:
http://www.systemonline.cz/clanky/nastroje-complex-event-processing.htm
Bring your own device (BYOD)
BALLAGAS, Rafael, et al. BYOD: Bring your own device. In: UbiComp 2004 Workshop on Ubiquitous
Display Environments. 2004.
BURT, Jeffrey. BYOD trend pressures corporate networks. eweek, 2011, 28.14: 30-31.
HAYES, Bob a Kathleen KOTWICA. Bring Your Own Device (BYOD) to Work: Trend Report. Newnes,
2013. ISBN 9780124116108.
HEARY, Jamey. Cisco ise for byod and secure unified access. 1st Ed. pages cm. ISBN 978-158-7143-
250.
KEYES, Jessica. Bring your own devices (BYOD) survival guide. xviii, 433 pages. ISBN 9781466565036-.
110
LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku. CIO [online]. 2013 [cit. 2013-06-
05]. Dostupné z: http://businessworld.cz/analyzy/byod-pouziva-jiz-polovina-it-odborniku-v-cesku-
10809
MANSFIELD-DEVINE, Steve. Interview: BYOD and the enterprise network. Computer Fraud & Security,
2012, 2012.4: 14-17.
MCLELLAN, Charles. Consumerization, BYOD and MDM: What you need to know. Zdnet [online]. 2013
[cit. 2013-06-05]. Dostupné z: http://www.zdnet.com/consumerization-byod-and-mdm-what-you-
need-to-know-7000010205/
RATHS, David. Are You Ready for BYOD?. THE Journal, 2012, 39.4: 28-32.
SKÁLA, Zbyněk. Nástrahy implementace BYOD politiky. System online [online]. 2012 [cit. 2013-06-05].
Dostupné z: http://www.systemonline.cz/hrm-personalistika/nastrahy-implementace-byod-
politiky.htm
THOMSON, Gordon. BYOD: enabling the chaos. Network Security, 2012, 2012.2: 5-8.
HTML5
PILGRIM, Mark. HTML5: up and running. 1st ed. Sebastopol, CA: O'Reilly, 2010, xii, 205 p. ISBN 978-
059-6806-026.
FRAIN, Ben. Responsive web design with HTML5 and CSS3: learn responsive design using HTML5 and
CSS3 to adept websites to any browser or screen size. Birmingham: Packt. ISBN 978-184-9693-189.
LAWSON, Bruce, Remy SHARP a Bruce LAWSON. Introducing HTML 5. 2nd ed. Berkeley, CA: New
Riders, c2012, xvi, 295 p. Voices that matter. ISBN 03-217-8442-1.
WILLIAMS, James L. Learning HTML5 game programming: a hands-on guide to building online games
using Canvas, SVG, and WebGL. Upper Saddle River, NJ: Addison-Wesley, 2012, xiii, 234 p. ISBN 978-
032-1767-363.
HTML5 Intoroducion. W3C. W3schools [online]. 2012 [cit. 2012-12-04]. Dostupné z:
http://www.w3schools.com/html/html5_intro.asp
MALÝ, Martin. Seriál Webdesignérův průvodce po HTML5. Zdroják [online]. 2011 [cit. 2012-12-04].
Dostupné z: http://www.zdrojak.cz/serialy/webdesigneruv-pruvodce-po-html5/
SMOLA, Martin. Seriál HTML5 a jeho zajímavé vlastnosti. Root [online]. 2012 [cit. 2012-12-04].
Dostupné z: http://www.root.cz/serialy/html5-a-jeho-zajimave-vlastnosti/
Open source
WEBER, Steve. The success of open source. Cambridge, MA: Harvard University Press, 2004.
FELLER, Joseph, et al. Understanding open source software development. London: Addison-Wesley,
2002.
LERNER, Josh; TIROLE, Jean. Some simple economics of open source. The journal of industrial
economics, 2002, 50.2: 197-234.
111
SAEED, A. I., et al. TM4: a free, open-source system for microarray data management and analysis.
Biotechniques, 2003, 34.2: 374.
HARS, Alexander; OU, Shaosong. Working for free? Motivations of participating in open source
projects. In: System Sciences, 2001. Proceedings of the 34th Annual Hawaii International Conference
on. IEEE, 2001. p. 9 pp.
SCHLOSS, Patrick D., et al. Introducing mothur: open-source, platform-independent, communitysupported
software for describing and comparing microbial communities. Applied and environmental
microbiology, 2009, 75.23: 7537-7541.
STALLMAN, Richard M.; GAY, Joshua. Free software, free society: Selected essays of Richard M.
Stallman. CreateSpace, 2009.
STALLMAN, Richard, et al. The GNU manifesto. 1985.
RAYMOND, Eric. The cathedral and the bazaar. Knowledge, Technology & Policy, 1999, 12.3: 23-49.
FOGEL, Karl. Producing open source software: How to run a successful free software project. O'Reilly
Media, Inc., 2005.
CAPILUPPI, Andrea; MICHLMAYR, Martin. From the cathedral to the bazaar: An empirical study of the
lifecycle of volunteer community projects. In: Open Source Development, Adoption and Innovation.
Springer US, 2007. p. 31-44.
112
Poznámky pod čarou – použitá literatura
AAMODT, Kenneth, et al. The ALICE experiment at the CERN LHC. Journal of Instrumentation, 2008,
3.08: S08002.
Aktuální výsledky výzkumu ZČU v Plzni v oblasti podtitulkování pořadů pro neslyšící. Česká televize
[online]. 2012 [cit. 2013-09-11]. Dostupné z:
http://img.ct24.cz/multimedia/documents/37/3685/368414.pdf
ANKOLEKAR, Anupriya, et al. DAML-S: Web service description for the semantic web. In: The
Semantic Web—ISWC 2002. Springer Berlin Heidelberg, 2002. p. 348-363.
APACHE. Welcome to Apache™ Hadoop®! [online]. 2012 [cit. 2013-02-12]. Dostupné z:
http://hadoop.apache.org/
Automatic captions. GOOGLE. YouTube [online]. 2013 [cit. 2013-09-11]. Dostupné z:
https://support.google.com/youtube/answer/3038280?hl=en
BEHR, Johannes, et al. A scalable architecture for the HTML5/X3D integration model X3DOM. In:
Proceedings of the 15th International Conference on Web 3D Technology. ACM, 2010. p. 185-194.
BERNERS-LEE, Tim a Daniel CONNOLLY. Hypertext Markup Language (HTML): A Representation of
Textual Information and MetaInformation for Retrieval and Interchange. IETF [online]. 1993 [cit.
2013-09-12]. Dostupné z: http://tools.ietf.org/id/draft-ietf-iiir-html-00.txt
BERNERS-LEE, Tim, et al. The semantic web. Scientific american, 2001, 284.5: 28-37.
BERNERS-LEE, Tim. Semantic web road map. 1998.
BRDIČKA, Bořivoj. Daty řízené školství, politika a technologie. Metodický portál: Články [online]. 24.
05. 2010, [cit. 2013-09-10]. Dostupný z WWW: .
ISSN 1802-4785.
BRDIČKA, Bořivoj. Skutečné možnosti využití daty řízeného školství. Metodický portál: Články [online].
12. 09. 2011, [cit. 2013-09-10]. Dostupný z WWW:
.
ISSN 1802-4785.
BROCKMEIER, Joe. What We Lose in a Post-PC World. ReadWriteWeb [online]. 2012[cit. 2012-03-11].
Dostupné z: http://readwrite.com/2012/03/08/what-we-lose-in-a-post-pc-worl
BYOD Smart Solution. Cisco [online]. 2013 [cit. 2013-09-12]. Dostupné z:
http://www.cisco.com/web/solutions/trends/byod_smart_solution/index.html
CATTELL, Raymond B. A shortened “basic English” version (Form C) of the 16 PF Questionnaire. The
Journal of Social Psychology, 1956, 44.2: 257-278.
Cisco IPv6 Lab: IPv6 Deployment. Cisco [online]. 2012 [cit. 2012-12-17]. Dostupné z:
http://6lab.cisco.com/stats/
113
ČERNÝ, Michal a Gabriela ŠIMKOVÁ. Fascinující možnosti WolframAlpha. Inflow : information journal
[online], Brno, 2012, roč. 5, č. 10. ISSN 1802-9736.
ČERNÝ, Michal. Budoucnost sémantického desktopu. Inflow: information journal[online]. 2012, roč. 5,
č. 1 [cit. 2012-01-07]. Dostupný z WWW: .
ISSN 1802-9736.
ČERNÝ, Michal. Budoucnost vyhledávání: Mezi soukromím, technologií a legislativou. In INFORUM
2012: 18. ročník konference o profesionálních informačních zdrojích. Praha: Albertina icome Praha,
2012. 8 s. ISSN 1801-2213.
ČERNÝ, Michal. Changes in information literacy in the context of new technologies. Praha: Center for
Higher Education Studies, 2013. s. 53-56, 4 s. ISBN 978-80-86302-45-4.
ČERNÝ, Michal. Ke konceptu soukromí v informační společnosti. Inflow: information journal [online].
2012, roč. 5, č. 4 [cit. 2012-04-07]. Dostupný z WWW: .
ISSN 1802-9736.
ČERNÝ, Michal. Počítačové zpracování emocí. Root [online]. 2013 [cit. 2013-09-11]. Dostupné z:
http://www.root.cz/clanky/pocitacove-zpracovani-emoci/
ČERNÝ, Michal. Ubuntu jde s mobilními telefony naproti firmám. Root [online]. 2013 [cit. 2013-09-
12]. Dostupné z: http://www.root.cz/clanky/ubuntu-jde-s-mobilnimi-telefony-naproti-firmam/
ČERNÝ, Michal. Ubuntu se zásadně změní. Je důvodem jeho prodej?. Root [online]. 2013 [cit. 2013-
09-12]. Dostupné z: http://www.root.cz/clanky/ubuntu-se-zasadne-zmeni-je-duvodem-jeho-prodej/
ČERNÝ, Michal. Vybraná témata ze sociální informatiky II.. Metodický portál: Články [online]. 21. 05.
2012, [cit. 2013-09-10]. Dostupný z WWW: .
ISSN 1802-4785.
ČERNÝ, Michal. Sémantický web – jak dál?. Ikaros [online]. 2009, roč. 13, č. 5. [cit. 2013-05-08].
Dostupný na World Wide Web: . URN-NBN:cz-ik5437. ISSN 1212-
5075.
ČERNÝ, Michal. Stručný úvod do konceptu sémantického desktopu. Inflow: information
journal [online]. 2011, roč. 4, č. 12 [cit. 2011-12-07]. Dostupný z WWW:
. ISSN 1802-9736.
DECKER, Stefan; FRANK, Martin R. The Networked Semantic Desktop. In: WWW Workshop on
Application Design, Development and Implementation Issues in the Semantic Web. 2004. p. 1613-
0073.
DELOITTE. Technology, Media & Telecommunications Predictions 2013. Deloitte [online]. 2012 [cit.
2013-01-09]. Dostupné z: http://www.deloitte.com/assets/Dcom-
BruneiDarussalam/Local%20Assets/Documents/TMT%20Predictions%202013.pdf
DFKI GMBH - KNOWLEDGE MANAGEMENT DEPARTMENT. NEPOMUK - The Social Semantic Desktop FP6-027705
[online]. 2008 [cit. 2013-09-11]. Dostupné z: http://nepomuk.semanticdesktop.org/
114
DODDAVULA, Shyam Kumar; AGRAWAL, Ira; SAXENA, Vikas. Cloud Computing Solution Patterns:
Infrastructural Solutions. In: Cloud Computing. Springer London, 2013. p. 197-219.
DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat. SystemOnline
[online]. 2011 [cit. 2013-01-09]. Dostupné z: http://www.systemonline.cz/clanky/big-data.htm
ECKERT, Michael. Complex event processing with XChange EQ: language design, formal semantics,
and incremental evaluation for querying events. LMU München: Faculty of Mathematics, München,
2008.
EDMUNDS, Angela; MORRIS, Anne. The problem of information overload in business organisations: a
review of the literature. International journal of information management, 2000, 20.1: 17-28.
EELCO PLUGGE, Peter Membrey and Tim Hawkins. The definitive guide to MongoDB: the noSQL
database for cloud and desktop computing. New ed. New York, NY: Apress, 2010. ISBN 978-143-
0230-519.
EKMAN, Paul. Basic emotions. Handbook of cognition and emotion, 1999, 4: 5-60.
FILIP, Ondřej. Tak jsme na suchu!. Root [online]. 2012 [cit. 2013-09-12]. Dostupné z:
http://www.root.cz/clanky/tak-jsme-na-suchu/
Fitbit flex. Ifitbit [online]. 2013 [cit. 2013-09-12]. Dostupné z: http://www.ifitbit.cz/eshop/fitbit/flex/
FOGEL, Karl. Producing open source software: How to run a successful free software project. O'Reilly
Media, Inc., 2005.
FROULÍK, Radek. Nová ekonomika a globální informační společnost. Interval [online]. 2005 [cit. 2013-
09-11]. Dostupné z: http://interval.cz/clanky/nova-ekonomika-a-globalni-informacni-spolecnost/
Google Glass. Google [online]. 2013 [cit. 2013-08-19]. Dostupné z:
http://www.google.com/glass/start/
Google Goggles. Google [online]. 2012 [cit. 2013-04-25]. Dostupné z:
http://www.google.cz/intl/cs/mobile/goggles/#text
GREGOR, Jiří a Martin HOLUB. Nástroje complex event processing jsou klíčem k efektivnímu
rozhodování v reálném čase. SystemOnline [online]. 2012 [cit. 2013-07-12]. Dostupné z:
http://www.systemonline.cz/clanky/nastroje-complex-event-processing.htm
HARRIS, Frank; MCCAFFER, Ronald. Modern construction management. Wiley. com, 2013.
HARS, Alexander; OU, Shaosong. Working for free? Motivations of participating in open source
projects. In: System Sciences, 2001. Proceedings of the 34th Annual Hawaii International Conference
on. IEEE, 2001. p. 9 pp.
HAYES, Bob a Kathleen KOTWICA. Bring Your Own Device (BYOD) to Work: Trend Report. Newnes,
2013. ISBN 9780124116108.
HEDGEBETH, Darius. Data-driven decision making for the enterprise: an overview of business
intelligence applications. VINE, 2007, 37.4: 414-420.
115
HTML 4.01 Specification. W3C. W3C Recommendation [online]. 1999 [cit. 2013-09-12]. Dostupné z:
http://www.w3.org/TR/html401/
HUSTON, Geoff a George MICHAELSON. Counting DNSSEC. Potaroo.net [online]. 2012 [cit. 2012-12-
17]. Dostupné z: http://www.potaroo.net/ispcol/2012-10/counting-dnssec.html
HWANG, Junseok; ARAVAMUDHAM, Praveen. Middleware services for P2P computing in wireless
grid networks. Internet Computing, IEEE, 2004, 8.4: 40-46.
CHIRUVOLU, Girish; AGRAWAL, Anshul; VANDENHOUTE, Marc. Mobility and QoS support for IPv6based
real-time wireless Internet traffic. In: Communications, 1999. ICC'99. 1999 IEEE International
Conference on. IEEE, 1999. p. 334-338.
Ingress. Ingress [online]. 2013 [cit. 2013-08-19]. Dostupné z: http://www.ingress.com/
IOnRoad. IOnRoad [online]. 2013 [cit. 2013-08-19]. Dostupné z: http://www.ionroad.com/
JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí [online]. 2007 [cit. 2013-07-12]. Diplomová práce.
Masarykova univerzita, Fakulta informatiky. Vedoucí práce Ivan Kopeček. Dostupné z:
.
JEASON, Mick. Anonymous Engages in Sony DDoS Attacks Over GeoHot PS3 Lawsuit. DailyTech
[online]. 2011 [cit. 2013-09-11]. Dostupné z:
http://www.dailytech.com/Anonymous+Engages+in+Sony+DDoS+Attacks+Over+GeoHot+PS3+Lawsui
t/article21282.htm
JOHNSON, Bobbie. Cloud computing is a trap, warns GNU founder Richard Stallman. The Guardian
[online]. 2008 [cit. 2013-09-11]. Dostupné z:
http://www.theguardian.com/technology/2008/sep/29/cloud.computing.richard.stallman
KARPÍŠEK, Jiří. Praktický úvod do Complex Event Processing [online]. 2011 [cit. 2013-07-12].
Diplomová práce. Masarykova univerzita, Fakulta informatiky. Vedoucí práce Michal Oškera.
Dostupné z: .
KATO, Hirokazu; BILLINGHURST, Mark. Marker tracking and hmd calibration for a video-based
augmented reality conferencing system. In: Augmented Reality, 1999.(IWAR'99) Proceedings. 2nd
IEEE and ACM International Workshop on. IEEE, 1999. p. 85-94.
KEITH JR, Robert O. Virtual recovery server. U.S. Patent No 8,423,821, 2013.
KHAN, Arijit, et al. Neighborhood based fast graph search in large networks. In: Proceedings of the
2011 ACM SIGMOD International Conference on Management of data. ACM, 2011. p. 901-912.
KHARE, Rohit; ÇELIK, Tantek. Microformats: a pragmatic path to the semantic web. In: Proceedings of
the 15th international conference on World Wide Web. ACM, 2006. p. 865-866.
KLAWONN, F. Prolog extensions to many-valued logics. In: Non-Classical Logics and their Applications
to Fuzzy Subsets. Springer Netherlands, 1995. p. 271-289.
KNOWLES, Seymour, et al. A natural language database interface for sql-tutor. 1999.
116
Konference. SuperLectures [online]. 2013 [cit. 2013-09-11]. Dostupné z:
http://www.superlectures.com/cs/conferences.php
KOPEČEK, Ivan, Karel PALA a Markéta STRAŇÁKOVÁ-LOPATKOVÁ. Ambiguity Problems in HumanComputer
Interaction. In Universal Access in HCI. London: Lawrence Erlbaum Associates, Publishers,
2001. s. 486-489. Volume 3. ISBN 0-8058-3609-8.
KOPEČEK, Ivan. Personality and Emotions - Finite State Modelling by Dialogue Automata. In
Proceedings of UM 2001 Workshop on Attitudes, Personality and Emotions in User-Adapted
Interaction. Bari: Universitz of Bari, 2001. s. 1-6.
KOPEČEK, Ivan. Počítačové zpracování emocí: Affective computing [online]. [cit. 2011-12-04].
Dostupné z: http://www.fi.muni.cz/~kopecek/socin7_affective_computing.ppt
Layar. Layar [online]. 2013 [cit. 2013-08-19]. Dostupné z: https://www.layar.com/
LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku. CIO [online]. 2013 [cit. 2013-06-
05]. Dostupné z: http://businessworld.cz/analyzy/byod-pouziva-jiz-polovina-it-odborniku-v-cesku-
10809
LINDE, Joakim; TUCKER, Brian J. DATA TRANSFER USING THE BLUETOOTH LOW ENERGY STANDARD.
U.S. Patent No 20,130,102,251, 2013.
LU, Wei Jun; CUI, Bo Long; HU, Su Rong. Visualization Engineering Simulation Based on HTML5 and
Cloud Computing. Advanced Materials Research, 2013, 711: 575-581.
LUBBERS, Peter; ALBERS, Brian; SALIM, Frank. Creating HTML5 Offline Web Applications. In: Pro
HTML5 Programming. Apress, 2010. p. 243-257.
LUCKHAM, David C. The power of events. Reading: Addison-Wesley, 2002.
LUCKHAM, David C.; FRASCA, Brian. Complex event processing in distributed systems. Computer
Systems Laboratory Technical Report CSL-TR-98-754. Stanford University, Stanford, 1998, 28.
LUNDBERG, Alan. Leverage complex event processing to improve operational performance. Business
Intelligence Journal, 2006, 11.1: 55.
MAGYAR, Judith. The Ubiquitous Internet of Things: Managing Cities the Smart Way. SAP [online].
2012 [cit. 2013-09-12]. Dostupné z: http://scn.sap.com/community/business-
trends/blog/2012/11/26/the-ubiquitous-internet-of-things-managing-cities-the-smart-way
MATULÍK, Petr, PITNER, Tomáš. Sémantický web a jeho technologie. Zpravodaj ÚVT MU. 2004, roč.
XIV,, č. 3, s. 15-17. Dostupný z WWW: . ISSN
1212-0901.
MATYSKA, Luděk. Virtualizace výpočetního prostředí. Zpravodaj ÚVT MU. ISSN 1212-0901, 2006,
roč. XVII, č. 2, s. 9-11.
MCILRAITH, Sheila A.; SON, Tran Cao; ZENG, Honglei. Semantic web services. Intelligent Systems,
IEEE, 2001, 16.2: 46-53.
117
MCLELLAN, Charles. Consumerization, BYOD and MDM: What you need to know. Zdnet [online]. 2013
[cit. 2013-06-05]. Dostupné z: http://www.zdnet.com/consumerization-byod-and-mdm-what-you-
need-to-know-7000010205/
MICHAL, Černý. Rozšířená realita: od mobilního telefonu k chytrým brýlím. Root [online]. 2013 [cit.
2013-07-12]. Dostupné z: http://www.root.cz/clanky/rozsirena-realita-od-mobilniho-telefonu-k-
chytrym-brylim/
MIT. MIT Media Lab: Affective Computing [online]. 2013 [cit. 2013-09-12]. Dostupné z:
http://affect.media.mit.edu/
MONTOYA-WEISS, Mitzi M.; MASSEY, Anne P.; SONG, Michael. Getting it together: Temporal
coordination and conflict management in global virtual teams. Academy of management Journal,
2001, 44.6: 1251-1262.
MOORE, Gordon. Progress in Digital Integrated Electronics. IEEE, IEDM Tech Digest. 1975 pp.11-13.
NMC Horizon Project. NMC Horizon Project | The New Media Consortium [online]. 2013 [cit. 2013-09-
11]. Dostupné z: http://www.nmc.org/horizon-project
Official Moodle git projects - moodle. Moodle [online]. 2007 [cit. 2013-09-12]. Dostupné z:
http://git.moodle.org/gw?p=moodle.git;a=blob;f=COPYING.txt;h=94a9ed024d3859793618152ea559
a168bbcbb5e2;hb=HEAD
Open Source Initiative: Open Source Licenses [online]. [cit. 2013-09-12]. Dostupné z:
http://opensource.org/licenses
ORACLE. VirtualBox [online]. 2013 [cit. 2013-09-11]. Dostupné z: https://www.virtualbox.org/
PALA, Karel. Počítačové zpracování přirozeného jazyka. NLP FI MU [online]. 2000 [cit. 2012-12-27].
Dostupné z: nlp.fi.muni.cz/poc_lingv/pala_zprac.pdf
PEARCE, Michael; ZEADALLY, Sherali; HUNT, Ray. Virtualization: Issues, security threats, and
solutions. ACM Computing Surveys (CSUR), 2013, 45.2: 17.
PETERKA, Jiří. LTE v ČR: jedno promile na opojení nestačí. Lupa [online]. 2012 [cit. 2013-09-12].
Dostupné z: http://www.lupa.cz/clanky/lte-v-cr-jedno-promile-na-opojeni-nestaci/
PETERKA, Jiří. Telefónica nasazuje IPv6 na svém xDSL. Lupa [online]. 2012 [cit. 2013-09-12]. Dostupné
z: http://www.lupa.cz/clanky/telefonica-nasazuje-ipv6-na-svem-xdsl/
PRŮŠA, Jiří. IPv6 v Česku měsíc po „dni D“. Connect [online]. 2012 [cit. 2012-12-17]. Dostupné z:
http://connect.zive.cz/bleskovky/ipv6-v-cesku-mesic-po-dni-d/sc-321-a-164455
RAYMOND, Eric. The cathedral and the bazaar. Knowledge, Technology & Policy, 1999, 12.3: 23-49.
RUBIN, V.; STANTON, J.; LIDDY, E. Discerning emotions in texts. In: The AAAI Symposium on Exploring
Attitude and Affect in Text (AAAI-EAAT). 2004.
SATRAPA, Pavel. IPv6: internetový protokol verze 6. 3., aktualiz. a dopl. vyd. Praha: CZ.NIC, c2011,
407 s. CZ.NIC. ISBN 978-80-904248-4-5.
118
SCARFO, Antonio. New Security Perspectives around BYOD. In: Broadband, Wireless Computing,
Communication and Applications (BWCCA), 2012 Seventh International Conference on. IEEE, 2012. p.
446-451.
SEDLÁK, Jan. Internet věcí bude bilionový byznys. I pro české firmy. Connect [online]. 2013 [cit. 2013-
07-12]. Dostupné z: http://connect.zive.cz/clanky/internet-veci-bude-bilionovy-byznys-i-pro-ceske-
firmy/sc-320-a-169420
SemanticDesktop.org: OSCAF/NEPOMUK Ontologies [online]. [cit. 2013-07-05]. Dostupný z WWW:
http://www.semanticdesktop.org/ontologies/
SEO, Yoon Deuk; AHN, Jin Ho. Efficient NFC Tagging Pattern-Based Contents Recommendation for
Museum Viewers. Applied Mechanics and Materials, 2013, 263: 2876-2880.
Seriál Nerelační databáze. Zdroják [online]. 2011 [cit. 2012-09-05]. Dostupné z:
http://www.zdrojak.cz/serialy/nerelacni-databaze/
SIKOS, Leslie. Web standards: mastering HTML5, CSS3, and XML. Apress, 2011.
SKÁLA, Zbyněk. Nástrahy implementace BYOD politiky. System online [online]. 2012 [cit. 2013-06-05].
Dostupné z: http://www.systemonline.cz/hrm-personalistika/nastrahy-implementace-byod-
politiky.htm
Sleep as Android. URBANDROID TEAM. Google Play [online]. 2013 [cit. 2013-09-12]. Dostupné z:
https://play.google.com/store/apps/details?id=com.urbandroid.sleep&hl=cs
SLÍŽEK, David a Petr KOUBSKÝ. Petr Mára: Dnešní učitel musí žákům klást otázky, které nejde
vygooglovat. Lupa [online]. 2013 [cit. 2013-09-11]. Dostupné z: http://www.lupa.cz/clanky/petr-
mara-dnesni-ucitel-musi-zakum-klast-otazky-ktere-nejde-vygooglovat/
SMITH, Joshua R. (ed.). Wirelessly powered sensor networks and computational RFID. Springer, 2013.
SMOLA, Martin. Seriál HTML5 a jeho zajímavé vlastnosti. Root [online]. 2012 [cit. 2012-12-04].
Dostupné z: http://www.root.cz/serialy/html5-a-jeho-zajimave-vlastnosti/
STALLMAN, Richard, et al. The GNU manifesto. 1985.
Stephen Hawking. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia
Foundation, 2001- [cit. 2013-09-11]. Dostupné z: http://cs.wikipedia.org/wiki/Stephen_Hawking
SWAN, Melanie . Sensor mania! The Internet of Things, wearable computing, objective metrics, and
the Quantified Self 2.0. 2012. [cit. 2013-8-18]. Dostupný z WWW: [http://www.mdpi.com/2224-
2708/1/3/217/pdf].
ŠVANCARA, Josef. Emoce, motivace, volní procesy. Studijní příručka k předmětu Obecná psychologie II
(prožívání, jednání), Brno, Psychologický Ústav FF MU, 2003.
TERNIER, Stefaan, et al. Mobile augmented reality with audio. Supporting fieldwork of Cultural
Sciences students in Florence. 2013.
119
Top Trends for 2013. IEEE Computer society [online]. 2012 [cit. 2013-09-11]. Dostupné z:
http://www.computer.org/portal/web/membership/13-Top-Trends-for-2013
TSIRTSIS, George. Network address translation-protocol translation (NAT-PT). Network, 2000.
ULLRICH, Johannes. Malicious Images: What's a QR Code. ISC Diary [online]. 2011 [cit. 2013-08-19].
Dostupné z: http://archive.is/20120713141653/http://isc.sans.edu/diary.html?storyid=11305
VADINSKÝ, Ondřej. Nepomuk-KDE: Sémantický desktop pro Linux. AbcLinuxu [online]. 2010 [cit. 2013-
09-11]. Dostupné z: http://www.abclinuxu.cz/clanky/nepomuk-kde-semantickydesktopprolinux
VAŇKOVÁ , Jana , ČERNÝ, Michal. Úvod do počítačových sítí. Metodický portál: Články [online]. 28.
11. 2011, [cit. 2013-09-10]. Dostupný z WWW: .
ISSN 1802-4785.
VU, V.-T., et al. Audio-video event recognition system for public transport security. 2006.
Využití QR kódů ve školství. QR - kody.cz [online]. 2012 [cit. 2013-08-19]. Dostupné z: http://www.qr-
kody.cz/qr/qr-kody-skola.html
WATSON, Hugh J., et al. Real-time business intelligence: Best practices at Continental Airlines.
Information Systems Management, 2006, 23.1: 7.
WEAVER, John V. ARCHITECTURE FOR WIRELESS COMMUNICATION AND MONITORING. U.S. Patent
Application 13/005,510, 2011.
Welcome to the Android Open Source Project!. GOOGLE. Android [online]. 2013 [cit. 2013-09-12].
Dostupné z: http://source.android.com/
WILLIAMS, James L. Learning HTML5 game programming: a hands-on guide to building online games
using Canvas, SVG, and WebGL. Upper Saddle River, NJ: Addison-Wesley, 2012, xiii, 234 p. ISBN 978-
032-1767-363.
Windows Intune. Microsoft [online]. 2013 [cit. 2013-09-12]. Dostupné z:
http://www.microsoft.com/cs-cz/windows/windowsintune/pc-management.aspx
WINTER, Mick. Scan me: everybody's guide to the magical world of QR codes-- barcodes, mobile
devices and hyperlinking the real to the virtual. 1st print ed. Napa, Calif.: Westsong Pub., 2011, 142 p.
ISBN 09-659-0003-7.
WOLF, Gary. The data-driven life. The New York Times, 2010, 28.
WU, Eugene; DIAO, Yanlei; RIZVI, Shariq. High-performance complex event processing over streams.
In: Proceedings of the 2006 ACM SIGMOD international conference on Management of data. ACM,
2006. p. 407-418.
YORK, Dan. Migrating applications to IPv6. 1st ed. Sebastopol, Calif.: O'Reilly, c2011, xxi, 34 p. ISBN
14-493-0787-6.
120
ZANDL, Patrick. Chcete změnit svět? Věnujte pozornost Internetu věcí a Velkým datům. Marigold
[online]. 2013 [cit. 2013-09-12]. Dostupné z: http://www.marigold.cz/item/chcete-zmenit-svet-
venujte-pozornost-internetu-veci-a-velkym-datum
ZANDL, Patrick. Jak na měření?. Energomonitor [online]. 2013 [cit. 2013-09-11]. Dostupné z:
http://www.energomonitor.cz/jak-na-mereni/
ZEZULA, Pavel. Future Trends in Similarity Searching. In Gonzalo Navarro and Vladimir Pestov.
Proceedings of the Simimarity Search and Applications 2013. Heidelberg: Springer, 2012. s. 8 - 24, 17
s. ISBN 978-3-642-32152-8. doi:10.1007/978-3-642-32153-5_2.
ZLATUŠKA, Jiří. Informační společnost. Zpravodaj ÚVT MU. ISSN 1212-0901, 1998, roč. VIII, č. 4, s. 1-6.
Obrázky
Augumented reality. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia
Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Augumented_reality
Big Data. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation,
2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Big_data
BYOD Smart Solution: Implementation. Cicso [online]. 2013 [cit. 2013-09-13]. Dostupné z:
http://www.cisco.com/web/solutions/trends/byod_smart_solution/implement.html
Emotion. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation,
2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Emotion
HTML5. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation,
2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/HTML5
Internet of Things. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia
Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Internet_of_Things
IPv6. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001[cit.
2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/IPv6
Richard Stallman. Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia
Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Richard_Stallman
Semantic web. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia
Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Semantic_Web
Speech synthesis. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia
Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Speech_synthesis
VirtualBox. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation,
2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/VirtualBox
121
O autorovi
Michal Černý vystudoval obor učitelství fyziky a výpočetní techniky pro střední školy a teologické
nauky, nyní je postgraduálním studentem obecných otázek fyziky na Přírodovědecké fakultě
Masarykovy univerzity. V rámci projektu CEINVE působí na FF MU jako metodik, dále působí jako
lektor a fyzik na dalších fakultách téže univerzity. Přednáší předmět Digitální kompetence a podílí se
na výuce předmětů jako je Kurz práce s informacemi, Kreativní práce s informacemi či New
Technology in Education.
Je autorem stovek článků týkajících se převážně moderních technologií, trendů a informační
společnosti na serverech Lupa, Root či DSL.cz. Dlouhodobě se věnuje také problematice didaktiky
informatiky a informační výchově, což ilustrují jeho četné články na RVP.cz. Napsal několik desítek
recenzovaných publikací, příspěvků do sborníků či skript. Působí také jako šéfeditor webových
magazínů Inspiromat.cz a Myslenkove-mapy.cz.