Dvanáct trendů v české softwarové ekonomice 2013 Michal Černý 1 Úvod Podle Moorova zákona dochází každých osmnáct měsíců ke zdvojnásobení výkonu čipu při konstantní ceně, nebo naopak ke snížení ceny na polovinu při konstantním výkonu. Tato skutečnost znamená, že se ICT odvětví, které je právě na součástkách tohoto typu závislé, rozvíjí nikoli lineárně či kvadraticky, ale exponenciálně.1 Zároveň můžeme směle prohlásit, že nestrmou část této pomyslné vývojové křivky již máme za sebou. Lidstvo v průběhu svého vývoje procházelo různými revolucemi, které vždy znamenaly na jedné straně zásadní otřes společnosti a jejího fungování, ale také prostor pro dramatický a jen velice obtížně očekávatelný vývoj. Vznik měst a univerzit ve středověku znamenal dramatický rozvoj vzdělanosti i řemesel, průmyslová revoluce byla signifikantní nejen užitím strojů místo práce lidských svalů, ale také významným snížením počtu obyvatel vesnice. Je přitom zřejmé, že každá revoluce s sebou přináší nemalé problémy – ať již šlo o morové rány či závislost na venkově v případě středověkých měst nebo potřeba péče o chudé, dělníky a přistěhovalce za průmyslové revoluce. V každém případě však lze říci, že štěstí přeje připraveným. Nejde přitom jen o připravenost z hlediska dostatečné technologie, intelektuálního a sociálního kapitálu nebo jiné materiální zabezpečení, ale také o dobrou znalost sociálního a kulturního kontextu. Ten je přitom pro prosazování nových myšlenek a postupů nezbytný, neboť jeho reflexe umožňuje odstranit řadu případných problém a krizí ještě dříve, nežli k nim vůbec dojde. Tato publikace se snaží představit dvanáct trendů, které zásadním způsobem promění softwarovou ekonomiku, či chceme-li způsob vývoje softwaru a jeho užívání, aniž by u některého z nich zabíhala do detailů a podružností, které jsou užitečné jen konkrétnímu vývojáři. Snaží se na jedné straně nastínit a ukázat jejich vzájemné spojení a ovlivňování, ale také provést jejich jednoduchou SWOT analýzu tak, aby bylo zřejmé, kde jsou výzvy a jaká rizika je v případě jejich implementace do vývoje třeba zvažovat. Pokud jde o výběr, snažili jsme se uvážit několik základních kritérií. Především jde o trendy, které budou ovlivňovat vývoj ICT, ale v určité formě již nyní existují dílčí projekty a pokusy o jejich implementaci. Nejde tedy o sci-fi, ale spíše o extrapolaci současného vývoje, při zvážení konceptů, které nabízí teoretická informatika. Druhým kritériem byla spojitost software – nejsou zde popisovány trendy jako je rozvoj LTE sítí či 3D tiskárny, neboť jde primárně o technologie hardwarové, ke kterým software přistupuje sice přirozeně, ale jaksi navíc a nepřímo. Vyházeli jsme přitom z nejrůznějších žebříčků, jako je Horizon Report,2 IEEE Computer Society pro rok 2013,3 Deloitte Technology, Media & Telecommunications Predictions4 a řady dalších. Snažili jsme se při výběru sledovat ještě dvě důležitá kritéria – předně to, aby jednotlivé trendy pokrývali co možná nejvíce celou oblast ICT s ohledem na rozvoj informační společnosti jako celku a pak také časové období jejich masivního nástupu, které klademe do doby 2-5 let. To neznamená, že by dále již nemělo smysl o nich hovořit, ale že v této době budou tak masivně rozšířeny a etablovány, že bude možné na 1 MOORE, Gordon. Progress in Digital Integrated Electronics. 2 NMC. NMC Horizon Project. 3 IEEE Computer Sociality. Top Trends for 2013. 4 DELOITTE. Technology, Media & Telecommunications Predictions 2013. 2 nich běžným způsobem stavět obchodní model, který povede k prodeji softwaru, tedy že budou společně vytvářet určité pilíře softwarové ekonomiky. Ještě dříve, než se do popisu jednotlivých technologií pustíme, zařazujeme dvě úvodní kapitolky, které jsou pro pochopení celé koncepce publikace kruciální. Jednak jde o stručný úvod do informační společnosti, který ukazuje šíři oblastí, kterou softwarové produkty zasahují, ale také kontext v oblasti dopadu na život a chování lidí a také tu týkající se softwaru jako služby, tedy produktu pro konkrétního zákazníka, s distribučním kanálem, celou i procesem inovace. Z analýzy trendů vyplývají některé zajímavé skutečnosti. Velká část z nich je těsně spojená s matematikou, matematickými modely a teoretickou informatikou. Právě dobrá znalost těchto disciplín tak bude v budoucnu pro vývoj aplikací zcela zásadní a zřejmě tak sníží neustále diskutované napětí mezi školami teoretickými a aplikovanými. Teoretické modely bude muset dobře znát každý vývojář, protože budou součástí téměř všech pokročilejších aplikací. Další, neméně zajímavou skutečností je, že mezi hlavní problémy, které jsou s nástupem ICT spojené, bude patřit stále více otázka ochrany soukromí a možnost manipulovat s uživatelem.5 Je na zodpovědnosti a přístupu jednotlivých tvůrčích týmů, aby k jednotlivým tématům přistupovaly s dostatečnou společenskou zodpovědností. Nikoli jen pro požadavek na nějaké obecné dobro, ale také s myšlenkou, že jde o jeden z důležitých prvků, podle kterého se uživatelé rozhodují, zda o danou technologii vlastně stojí či nikoli. Pro celou softwarovou ekonomiku je pak klíčové tvrzení Richarda Stallmana, že žádná oblast lidského zájmu nepodléhá toliko módním trendům jako právě software a ICT obecně. Zájem o nové trendy, o to co je právě in, je často mnohem důležitější, nežli skutečná užitečnost daného řešení.6 Pokud se podíváme na částky, které jsou vynakládány na malé startupové společnosti, lze říci, že jsou téměř vždy neadekvátní tomu, jaký aktuální ekonomický potenciál tyto společnosti mají. Investuje se ale do lidí, myšlenek a trendů. Reflexe významu módních trendů je přitom jednou z nejdůležitějších výbav stratéga, který zvažuje, které oblasti ICT se bude věnovat. Pro koho je publikace určena O své zřejmě nejznámější knize Tak pravil Zarathustra, říká Friedrich Nietzche, že je to kniha pro všechny a pro nikoho. Této situaci bychom se rádi vyhnuli. Je určena všem, kdo se pohybují v softwarové ekonomice, světě informačních a komunikačních technologií nebo se podílejí na vzdělávání a nemají primárně informatické vzdělání. Jednotlivé technologie jsou představovány s ohledem na studenty, kteří nevědí nic o automatech a gramatikách, neznají síťové algoritmy nebo nejsou odborníky na logické programování. Partie, které jsou technicky náročnější jsou odsazeny a čtenář je může – pokud jej nezajímá technický detail – přeskočit. Na druhou stranu věříme, že také informatikům může být text knihy přínosný – ať již hojnými odkazy na články a knihy k tématu, kontextuální šíří nebo jen připomenutím a vytažením některých důležitých trendů, kterým se ne vždy musela věnovat náležitá pozornost. 5 ČERNÝ, Michal. Budoucnost vyhledávání: Mezi soukromím, technologií a legislativou. 6 JOHNSON, Bobie. Cloud computing is a trap, warns GNU founder Richard Stallman. 3 K publikaci je vytvořený web,7 na kterém bude možné si dohledat (nejen) autorovy aktuální články k tématům, takže by obsah neměl ztratit s časem na aktuálnosti a měl by vzniknout prostor na jeho další prohlubování a rozvíjení. 7 Dostupný na https://sites.google.com/site/ceskasoftwarovaekonomika/ 4 Obsah Úvod ........................................................................................................................................................ 0 Big data.................................................................................................................................................... 9 Virtualizace............................................................................................................................................ 17 Sémantické technologie: web a desktop............................................................................................... 25 Zpracování přirozeného jazyka.............................................................................................................. 33 Počítačové zpracování emocí ................................................................................................................ 40 IPv6........................................................................................................................................................ 48 Internet věcí .......................................................................................................................................... 56 Rozšířená realita.................................................................................................................................... 64 Complex event processing .................................................................................................................... 72 Bring your own device (BYOD) .............................................................................................................. 79 HTML5 ................................................................................................................................................... 88 Open source .......................................................................................................................................... 96 Vybraná literatura k jednotlivým trendům ......................................................................................... 103 Poznámky pod čarou – použitá literatura ........................................................................................... 112 O autorovi............................................................................................................................................ 121 5 Informační společnost Samotný pojem informační společnost poprvé zazněl v Norově-Mincově zprávě francouzské vlády v roce 1975, která rozšířila tradiční chápání telekomunikací i na otázky národní technologické suverenity a vytyčila vládní iniciativy včetně elektronického občanství. Jde v zásadě o první krok v dějinách ICT technologií, kdy je občanská společnost spojována s technologickou platformou, která v této době vzniká – ať se jedná o rychle se rozvíjející telefonní sítě, nebo o nástup výpočetních strojů. Je přitom zajímavé, že mimo Evropu je informační společnost chápána především v ekonomickotechnologickém aspektu. Projekty jako Japonská Teletopie či Americká NTIA Telecom 2000: charting the course for a new century, sledují jednoznačně oblasti, jako je budování telekomunikační infrastruktury či podpora technologií s cílem posílení konkurenceschopnosti, nikoli primárně sociální a občanské hodnoty.8 Vliv ICT zásadním způsobem přetváří všechny oblasti lidské činnosti. Tradiční rozdělení hovoří o změnách v technologiích, ekonomice a struktuře zaměstnanosti, kultuře, ale také ve vzdělávání. Na tomto místě není prostor pro podrobný popis jednotlivých změn, přesto se pokusíme ve stručnosti ukázat alespoň základní charakteristiku jednotlivých posunů. Tahouny ekonomiky i zaměstnanosti jsou dnes firmy spojované s právě s rozvojem ICT technologií a jejich vlivu na společnost a ekonomiku. V USA lze uvést Google, Microsoft, IBM či Oracle, v Japonsku například Sony. Ve všech žebříčcích nejúspěšnějších firem lze snadno na předních pozicích identifikovat ty, které především vhodným způsobem manipulují s informacemi. Byla by ale chyba vztahovat tyto změny jen na počítačové firmy, neboť zasáhly také další oblasti, které jsou na informacích a inovacích závislé – farmacii, automobilky, strojírenství, bankovnictví či média. V tomto ohledu jsou změny mnohem masivnější, než by se na první pohled mohlo zdát. V ekonomice jsou patrné další transformace, z nichž mezi ty nejviditelnější patří zkracování či dokonce překrývání ekonomických cyklů, což zásadním způsobem zvyšuje tlak na inovace, vývoj i celý chod podniku. Vznikají ekonomické niky, které nahrazují klasické segmenty trhu, které byly známé z klasického industriálního období a lze také hovořit o zásadním vlivu globalizace a mezinárodních týmů i podnikání na celé obchodní prostředí. 8 ZLATUŠKA, Jiří. Informační společnost. 6 S tím souvisí také změna struktury zaměstnanosti. S nástupem průmyslové revoluce prudce poklesl podíl osob, které pracovaly v zemědělském sektoru, na úkor sekundární sféry. Situace v první polovině 20. století postupně nahrávala rozvoji služeb a dnes je možné sledovat, že na úkor všech tří oblastí se stále větší počet lidí přesouvá do informačního průmyslu. Lze říci, že existuje zcela nová skupina profesí – informačních analytiků, která do nástupu informační společnosti buď vůbec neexistovala, nebo se její činnost zásadním způsobem proměnila. Příkladem může být přesun řady vzdělávacích aktivit na internet, když mezi kantorem devatenáctého století a tutorem, je jednoznačný rozdíl jak v metodách a způsobu práce, tak také v pracování náplni. Proměnami prochází také struktura organizací, které postupně opouštějí autokratický, strmě pyramidový model řízení a častěji se prosazují adhokratický, síťový či projektový přístup k práci.9 V oblasti kulturních změn lze hovořit o zcela nových formách umění i distribučních kanálech, které jej umožňují pojímat netradičním způsobem. Mezi příklady těchto změn může patřit konec lokálních lidových umělců, jejichž činnost je omezená jen na určitý kraj a jejich vstup do silně globalizovaného internetového světa – ať již jde o výtvarný DevianArt, literární Písmák či nejrůznější weby zaměřené na amatérské fotografování či videa. Zásadními proměnami prochází také vzdělávání a školství. Je možné se zmínit o e-learningu, jako o technologii, která umožňuje zásadním způsobem globalizovat i personalizovat výuku, o webinářích, daty řízeném školství či masivních otevřených kurzech (MOOC),10 které zpřístupňují distanční formou vzdělání z prestižních světových univerzit každému, kdo o to má zájem. Tyto změny přitom neznamenají jen významný posun v samotném vzdělávání a vědě, ale také mohou pomoci v některých sociálních oblastech a v šíření gramotnosti. Nástup ICT má za následek zásadní změny v oblasti komunikace, která se proměňuje vlivem fenoménu prostorové komprese. V dnešní době lze provádět videokonferenci v téměř reálném čase i přes oceán, není nutné dlouho čekat na doručení nějakých zpráv či dat. Tato skutečnost má řadu rezonancí, mimo jiné v oblasti demokratizace či žurnalistiky. Tlak na rychlost má na jedné straně za následek větší veřejnou kontrolu a informovanost občanů, ale také může vést k nižší míře ověřování informací či ztrátě kontextu, což jsou rysy, které se s moderní žurnalistikou neodmyslitelně pojí. V tomto kontextu se někdy hovoří o časové či prostorové kompresy. Vzdálenost přestává hrát významnou roli v tom, jak rychle se můžeme dozvědět o nějaké události, nebo zda můžeme s někým komunikovat. Doba dlouhých polemických dopisů mezi významnými osobnostmi, které měly měsíce na její doručení a odpovědi je nahrazena možností komunikace v téměř reálném čase. Tato skutečnost silně determinuje také možnosti spolupráce v mezinárodním prostředí, která je díky moderním technologiím nejen možná, ale také podobně efektivní jako s kolegy z vedlejšího města. Doposud jsme si všímali dílčích aspektů změn chování lidí – vždy zde byl daný model chování, který se díky ICT technologiím určitým způsobem proměnil či posunul. To ale není jediná varianta změny v informační společnosti. Nové technologie a softwarové možnosti přinášejí také změny zcela zásadního charakteru v možnostech chování, mění to, jak se může člověk chovat. Příkladem může být například koncept rozšířené reality, která jen obtížně nachází nějaký protějšek v klasickém 9 FROULÍK, Radek. Nová ekonomika a globální informační společnost. 10 ČERNÝ, Michal. Changes in information literacy in the context of new technologies. 7 industriálním světě. Jestliže se masivně rozšíří, nejen zásadním způsobem ovlivní sociální chování, ale také například obsah toho, co je vyučováno ve školách. Podobně možnost pracovat s complex event processing, který umožňuje definovat scénáře chování systémů na základě nějakých vnějších událostí, mění celý systém fungování podniků, bezpečnostních systémů a řadu dalších oblastí. Jde o technologické přístupy, které přinášejí zcela nové, netušené možnosti, takže neumožňují odhadovat změny chování lidí nebo jejich plné využití, protože nemají analogii v předchozích vzorcích chování. Robert Reich ve své knize Dílo národů hovoří o vzniku nové skupiny profesí – informačních analytiků, kteří se budou živit primárně prací s informacemi a jejich vhodným manipulováním. V tomto ohledu představuje informační revoluci zásadní změnu v chápání stále většího množství profesí, které se posouvají do oblasti informačního průmyslu. Pochopení změn, které jsou spojené s existencí informační společnosti a jejich specifik, je klíčové pro kvalitní a inovativní přístup k tvorbě softwaru. Cesta přímé konkurence existujících řešení je sice možná, ale zřejmě naplno nevyužívá možností, které se v této době nabízí – zcela nové niky čekají na obsazení kvalitními, inovativně navrženými produkty, které budou řešit konkrétní úzkou specifiku potřeb informační společnosti. Její nalezení představuje klíč k úspěchu, možnost definovat zcela nový přístup či způsob řešení, ve kterém prozatím neexistuje konkurence. 8 Zásadní technologické koncepty Změny ve fungování softwaru i hardwaru mají zcela zásadní vliv na to, jakým způsobem se bude vyvíjet celá informační společnost, jaké aplikace budou moci být nasazeny a co to v posledu znamená pro celou softwarovou ekonomiku. První dvojící trendů, které v publikaci představujeme, jsou big data a koncept virtualizace. Oba s sebou přinášejí do určité míry zásadní přístup ke zpracovávání dat, který ovlivňuje všechny další trendy. Virtualizace vychází z myšlenky, že aplikace či výpočet nemusí probíhat pouze na jednom konkrétním zařízení, ale že lze zátěž rozložit na více strojů. To s sebou přináší zcela nové možnosti v tom, co lze výpočetně zvládnout (například data z urychlovače částic v CERNu by nebylo možné v rozumném čase zpracovat na jednom, třeba i nejvýkonnějším počítači na světě), umožňuje dobré škálování, snižuje náklady a umožňuje mnohem jednodušší nasazení nejrůznějších aplikací a nástrojů ve velkých organisacích. Big data jsou problematikou s virtualizací bytostně propojenou, neboť do určité míry, právě kvůli nim je celý její koncept tak stěžejní. Možnost operovat s velkými objemy dat, případně je mimořádně rychle zpracovávat je pro vývoj aplikací a systémů nejrůznějšího druhu velice potřebný a užitečný – od modelování srážek galaxií po prohledávání sociálních sítí je třeba se vypořádat s konkrétními nástrahami a problémy, která tato oblast přináší. Současně ale otevírá dveře do světa poznání a analýzy dat, které se zdály být ještě před několika málo lety uzavřeny. 9 Big data Big data (někdy překládaná jako velká data) a jejich zpracování představují jednu z nejvíce se rozvíjejících oblastí informatiky, jak v oblasti teoretického zkoumání a hledání nových postupů pro jejich analýzu, tak také především v množství existujících praktických aplikací, kterých je dnes již celá řada. Samotný pojem je přitom v čase značně proměnlivý – zatímco počátkem devadesátých let mohla data v řádu jednotek či stovek gigabajtů strukturovaného obsahu představovat objem, který lze zpracovat jen s velkými náklady, dnes jde o relativně malé a běžně analyzované soubory a pojem velkých dat se posouvá z gigabajtů na stovky terabajtů a více. Tak, jak rostou výpočetní možnosti, mění se nejen množství dat, které jsme schopni zpracovávat, ale také jejich zdroje. Velký rozvoj zaznamenávají senzorické sítě, realtimové zpracování obrazu a zvuku (například při pohybu lidí v nákupních centrech) nebo měřící přístroje, které mohou data nejen zobrazovat, ale také ukládat pro delší analýzu. To otevírá zcela nové možnosti jejich využití pro úsporné a optimalizační strategie netriviálních interagujících systémů nebo pokročilé business intelligence aplikace.11 Také moderní fyzika se běžně potýká s obrovskými objemy dat nejen v urychlovači částic v CERNu, ale také při zpracování dat z hvězdných teleskopů či při modelování složitých jevů (srážek galaxií atp.). Big data lze přitom chápat značně široce – na jedné straně představují problém co do objemu a náročnosti zpracování (ony galaxie s miliardami různých hvězd a černých děr), času (především tam, kde je třeba pracovat v reálném čase) nebo ve struktuře (například multimediální data). Obecně lze identifikovat dva základní trendy v jejich zpracování. První je využití distribuovaného výpočtu, což je případ cloud computingu či gridových sítí, druhou variantou, která je u určitého druhu dat nutná, je nasazení velice výkonných superpočítačů. S big daty se ale lze dnes již setkat téměř v jakýchkoli aplikacích – do vědeckých modelovacích nástrojů, až třeba po předpokládání provozu na silnicích v navigačních systémech. Velkým trendem v jejich zpracování je také vizualizace, která může často nahradit pracnou přesnou analýzu jednotlivých dat. 11 DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat. 10 Vizualizace dat vytvořená firmou IBM zobrazující editační aktivity jednoho z robotů Wikipedie.12 Současná technická praxe Big data jsou tématem, které hýbe informatikou již relativně velice dlouho, a tak je pochopitelné, že se postupně objevuje celá řada více či méně zdařilých konceptů, jak k této problematice přistupovat. Obecně bychom mohli definovat čtyři základní oblasti, ve kterých se jejich obtížné zpracování projevuje a podle toho navrhnout možné koncepty přístupu.13  Objem – dat je příliš mnoho na to, abychom je uměli zpracovat. Tato kategorie představuje to, co obvykle chápe pod pojmem big data široká veřejnost. Řešení se nabízejí různá. Zřejmě nejsnazší cestou je užívání triggerů, tedy zařízeních, která přímo při získávání dat provádějí elementární analýzu a vybírají jen ta zajímavá. Jde tedy o obcházení problému. Další obvyklé řešení je například užití distribuovaných výpočtů či gridů.  Rychlost – data potřebujeme zpracovávat téměř v reálném čase. Kritický tak není objem samotný, ale nároky na odezvu (příkladem může být hledání teroristů na letišti, prostřednictvím kamer a následná analýza jejich pohybu, mimiky a tělesné teploty). Často se řeší pomocí NoSQL databází, kde v rychlém zpracování nehledíme na celek, ale zpracováváme jen některé jeho podstatné informace. 12 Big data. Wikipedia. 13 DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat. 11  Nestrukturovanost - stojíme před problémem, jak vyhledávat v databázích multimediálních dat jinak, než pomocí metadat či textových popisků (třeba pomocí porovnávání se vzory ve znalostní databázi – identifikujeme ve filmu Eiffelovu věž a víme, že se odehrává v Paříži atp.).  Nehomogenita a nekonzistence – třeba v případě analýzy dat ze sociálních sítí je problém, že každá vypadají trochu jinak, má odlišnou strukturu či klíčové parametry. Mezi nejčastější řešení patří užití grafových databází a algoritmů nad nimi nebo tvorba vlastních sesbíraných dat a jejich další sekundární zpracování (například databáze článků a abstraktů). Často ani toto rozdělení není úplně přesné. Obecně platí, že ke každé množině dat je třeba přistupovat co možná nejvíce optimalizovaným způsobem a obecné poučky spíše ukazují možný směr úvah než hotová úplná řešení. Užití noSQL databází, které je zmíněno jako řešení celé řady problémů s big daty, patří mezi relativně kontroverzní metody. Obecně totiž takto postavené databáze umožňují jen velice slabé možnosti rozšíření či změny struktury tak, aby bylo možné přidat novou funkci. Také není často zajištěna konzistence databáze nebo její bezpečnost. Móda řešení téměř jakéhokoli systému s databází pomocí noSQL konceptů je sice zřejmá, ale ve velké části případů jsou zisky v rychlosti oproti dalším možným problémům spíše zanedbatelné.14 Mezi nejčastější noSQL koncepty lze zařadit především Key-value (klič-hodnota) databáze, které jsou založeny na myšlence, že ke každému klíči je přiřazena určitá hodnota. Databázový systém umí v zásadě jen na otázku na klíč vrátit informaci o hodnotě, přidávat a upravovat záznamy atp. Vyhledávání je tedy možné jen pomoci klíče, který není možné v databázi nějak dynamicky měnit. Tyto databáze se používají všude tam, kde je třeba zajistit rychlé odpovědi, i třeba za cenu nižších možností databáze. Časté je řešení, kdy základní dotazy a funkce zajišťuje rychlá key-value databáze a pokročilejší a náročnější operace pomalejší relační databáze. Tento postup užívá například Facebook či LinkedIn. Jde o jednoduché řešení pro big data v rychlosti, ovšem za cenu značné redundance, tedy vyšší ceny výsledného řešení. Grafově orientované databáze (Graph database) odstraňují jeden z největších problémů relačních databází, totiž jejich malou škálovatelnost, která je dána pevně nastavenou tabulkou. V řadě případů je ale potřeba mít flexibilnější řešení, která nabízejí právě grafově orientované databáze. Každý uzel má mimo vlastních informací uloženy také odkazy na své kolegy (sousední uzly). Tento model je užit často u sociálních sítí nebo jiných složitých struktur, je náročný na výkon a problémem může být menší množství již hotových řešení či modulů. Naopak existuje celá řada úkonů, jako hledání nejkratší cesty (tedy obecně optimalizace cesty mezi dvěma uzly), které se v podobných databázích řeší velice elegantně a robustně. Významným omezením na úrovni klasického SQL je tabulková struktura, která umožňuje jen velice obtížně umísťovat složité objekty a dále s nimi pracovat, jakými jsou například textové dokumenty, obrázky či audiosoubory. Tento problém se snaží řešit dokumentové či dokumentově orientované databáze, jejichž jednotlivé implementace se pak liší především v tom, v jakém formátu jsou dokumenty do systému uloženy (zde se například vyčleňují XML databáze) a jak konkrétně jsou z nich dolována data.15 14 EELCO PLUGGE, Peter Membrey and Tim Hawkins. The definitive guide to MongoDB: the noSQL database for cloud and desktop computing. 15 Seriál Nerelační databáze. Zdroják. 12 Stále větší význam má také cloud computing, který umožňuje provádět výpočty mimo mateřský počítač a dynamicky si alokovat výpočetní kapacitu podle vlastních potřeb. Toto řešení umožňuje dobrou škálovatelnost, snižuje náklady a současně může být pro vývojáře zajímavým zdrojem příjmů, když umožňuje například účtovat poplatky za provedené operace. V této oblasti se dnes velice intenzivně řeší například podpora multimediálního zpracování dat, tvorbo vhodného rozhraní či optimalizace pro různé druhy výpočtů.16 Cloud computing je ale jen součástí širšího konceptu podpory distribuovaných výpočtů, které umožňují rozložit kalkulaci složitých operací na více částí, které jsou zpracovávány zvlášť, a centrální uzel jen spojuje dílčí výsledky dohromady. Typickým příkladem může být například hledání novy na obloze metodou porovnávání snímků v časové škále. Místo studia celé oblohy zkoumají jednotlivé méně výkonné počítače jen několik málo úhlových vteřin či minut a v nich hledají cílové objekty. Hojně užívanou technikou pro práci s big daty je také vizualizace. Samotný proces vizualizace dat se skládá z několika hlavních fází – od získávání, přes přípravu pro zpracování, filtrování výsledků, dolování dat, převedení do patřičné formy, pročištění až po interpretaci. Z hlediska vývoje aplikací je možné se soustředit na libovolnou fázi. Relativně perspektivní se jeví tvorba nástrojů, které by tento proces umožňovaly bez větší znalosti matematického aparátu. Návaznost na další technologie Již výše jsme se zmínili o tom, že big data mají velice těsnou návaznost na distribuované výpočty, gridové sítě a další metody, které umožňují rozložení výpočetního výkonu na více počítačů, což snižuje celkovou cenu. Velkým tématem nejbližších let je především podpora mobilních aplikací, které by umožňovaly díky těmto nástrojům používat telefony jako terminály pro náročné výpočty. Big data a nástroje na jejich zpracování mají také úzkou návaznost na to, jakým způsobem mohou pracovat nejrůznější simulační nástroje ve vědě i technice. Každý pokrok v této oblasti umožňuje podstatné změny ve výpočetních modelech, což nemusí znamenat jen zpřesnění výsledků, ale také zcela nová kvalitativní zjištění. Velký význam mají big data také pro nástroje sloužící ke zpracování přirozeného jazyka, které se s objemem velkého množství dat musí také vypořádat. Zlepšení mohou znamenat pokročilejší možnou analýzu textu, stejně tak ale věrohodnější syntézu či rozpoznání řeči či otevření možností pro lepší dialogové systémy. Důležitými vstupními technologiemi pro big data jsou také metody grafových či biologických algoritmů a umělá inteligence, což jsou techniky, které umožňují heuristický přístup k datům a jejich pokročilé automatické zpracování, aniž by musel mít uživatel či programátor dopředu jasno o vlastní struktuře a povaze dat. Také z hlediska vizualizace a další analýzy lze zdůraznit význam těchto partií informatiky. Big data mají velký význam také v nejrůznějších oblastech vědy, ať již jde o fyziku, biologii či chemii nebo moderní sociologii, která je na modelování společenských jevů do velké míry závislá. Big data představují klíč ke zcela novým možnostem výzkumu nebo optimalizaci dějů, kterým se dříve nevěnovala větší pozornost, protože sběr a vyhodnocování dat byly mimo možnosti techniky. 16 HWANG, Junseok; ARAVAMUDHAM, Praveen. Middleware services for P2P computing in wireless grid networks. 13 Silné stránky a možnosti Již na začátku kapitoly jsme se zmínili o tom, že big data umožňují zcela nový pohled na svět a to jak v oblasti přírodních, tak také společenských věd. Moderní fyzika by jen těžko mohla fungovat bez nástrojů pro pokročilé zpracování velkých dat a to v téměř všech hlavních progresivních disciplínách. V oblasti studia hvězdné oblohy se používají distribuované výpočty na analýzu proměnných hvězd či hledání nových objektů, v LHC v CERNu17 je produkováno velké množství dat ze srážek, která jsou hned filtrována a dále posílána do gridových sítí, kde probíhá jejich zpracování, například s cílem najít nové částice. Podobně je možné zmínit teoretickou fyziku, která používá big data při simulování složitých jevů, jako jsou srážky galaxií. Výše uvedené příklady jsou jen malou ukázkou toho, jaké možnosti se vědě díky big datům a jejich zpracování otvírají. Budovat složité měřící přístroje, bez možnosti systematického a více či méně automatického zpracování dat by nemělo velký smysl a význam. Nové aplikace i teoretické koncepty možnosti efektivního dolování dat budou mít velký potenciál nejen v oblasti komerční sféry, ale také v klasické vědě v nejrůznějším provedení. Tak, jak se budou rozšiřovat senzorické sítě či internet věcí, lze očekávat také růst významu tohoto odvětví pro další nástroje. Lze říci, že big data samotná zřejmě nebudou na první pohled viditelnou vlajkovou lodí moderních technologií pro koncové uživatele, ale budou stát v pozadí nejrůznějších nástrojů. Ostatně již dnes je oblast cloudu a big dat vnímaná jako mimořádná, čemuž odpovídá i množství a hodnota akvizic nových společností, které v této oblasti podnikají. Big data jsou oblastí s výrazným interdisciplinármím potenciálem. Lze pomocí nich například navrhovat ideální nastavení toku elektrického proudu v síti, pokud budeme schopni online monitorovat spotřebu všech koncových uživatelů a interpretovat ji v historickém kontextu18 (například analyzovat špičku odběru v době okolo deváté v Praze). Využívat je lze ale také pro aplikace v mnohem menším měřítku. Například je možné analyzovat chování zákazníků v obchodech na základě sledování kamerovými systémy, kdy pro každého zvlášť lze vytvořit mapu, kudy chodil, co si kupoval a na jaké zboží se díval a na základě těchto dat měnit rozestavení zboží či jeho strukturu. To, co bylo do velké míry závislé na různých testech několika málo osob v designu služeb, bude možné rozšířit na chování všech návštěvníků. Velký význam budou mít také systémy pro business inteligence, které umožní nové manažerské postupy, založené na značně komplexnějších informacích, než jaké mají vedoucí pracovníci k dispozici dnes. Možnosti dokonalého měření a porovnávání dat jsou důležitá k lean managementu, který vyžaduje co možná nejdokonalejší data nejen v reálném čase, ale také jejich komparaci s historickou zkušeností. Podobně další přístupy k evolučnímu upravování služby představují důležitý prvek konkurenčního boje, který bude třeba ještě softwarově změnit. Budoucnost mají nepochybně také nástroje pro uchovávání dat, tedy datové sklady, které hrály v organisacích často jen roli depozitářů informací, se kterými se již dále nepracuje. Díky moderním technologiím bude možné aktivně zobrazovat nejrůznější trendy a tím nejen lépe předvídat situaci na trhu, ale také například odměňovat a motivovat zaměstnance či komunikovat s dodavateli. Znalost, 17 Příkladem může být detektor Alice. Viz. AAMODT, Kenneth, et al. The ALICE experiment at the CERN LHC. 18 Příkladem může být Energomonitor Patricka Zandla. 14 jak se v dané situaci partner zachoval, může hrát v současné době významnou úlohu z hlediska rozhodovacích mechanismů. Big data mají také úzký vztah k vizualizaci – řadu problémů či dat lze pomocí vhodně zvolených mechanismů vizualizovat, což je jednak rychlejší než se pokoušet o nějaké interpretační algoritmické metody, ale také tato technika umožní lépe pracovat s kontextem. Konzument dat má k dispozici přehled o vztazích mezi jednotlivými entitami, může je porovnávat a studovat na základě různých matematických filtrů, což může vést k lepšímu pochopení určitých dějů či struktur. Big data lze použít pro pokročilé vyhledávání například v sociálních sítích, kde lze analyzovat spokojenost přátel dané osoby s určitou službou, trendy o kterých se baví nebo politickou náladu ve společnosti. Slabé stránky a možné problémy Nepochybně však big data nejsou technologií, která by byla nutně přijímána všemi s nadšením a pochopením. Kritiku lze rozdělit do několika vzájemně se mírně ovlivňujících směrů. První může být ekologický – zpracování obrovského množství dat a jejich neustálé průběžné zpracování představuje netriviální zátěž pro životní prostředí. Lze se oprávněně domnívat, že díky této technologii poroste ekologická stopa (alespoň u IT oddělení). Z hlediska managementu lze zmínit především dvě velké obavy. Předně tyto technologie budou zatlačovat inovativního ducha vůdců či vizionářů, kteří táhli svá odvětví kupředu. Přehnané spoléhání na big data může vést k pouhému průměrování a hledání lokálních optim, aniž bychom měli představu o existenci lepších a komplexnějších postupů. Paradoxně tak může dojít ke zpomalení vývoje, protože intuice a cit manažera bude do velké míry svazována business inteligence nástroji. Jeho nadřízení mohou požadovat podložení daného postupu fakty, což není při plánování velkých skokových změn vždy dobře možné. Druhá obava, kterou budou mít zřejmě společnou ekologové a manažeři, je přílišná závislost na informačních technologiích. Nemusí jít nutně jen o strach z techniky, ale v případě extrémních situací, jako jsou povodně či požár, může dojít k ochromení celého fungování společnosti jen proto, že část IT podpory nefunguje. Dochází také k pěstování závislosti na práci několika málo IT odborníků, což z hlediska řízení není vůbec optimální. Podcenit nelze ani možnost, že relativně draze pořízená infrastruktura – ať již jde o vlastní servery či gridové sítě nebo využívání nějaké formy cloudu, nemusí přinést patřičné výsledky. Big data mohou být zpracovávána správným způsobem, analyzována, organisace se podle nich bude chtít chovat, ale prostě nepřinesou dostatečně novou informaci a zpřesnění, které poskytnou je téměř neznatelné. V takovém případě by jejich užívání znamenalo pro organisaci finanční zátěž a mohlo by bránit v jejím rozvoji. Velkým problémem mohou být také etické rozměry nasazení big dat ve firmách, kde by měla za cíl sledovat a vyhodnocovat chování zákazníků či zaměstnanců. Dochází zde k silnému narušování soukromí, což je hodnota, které si obyvatelé evropského kulturního okruhu velice cení. Lidé mohou vnímat silně negativně, že jsou sledování a z hlediska kantovské etiky dochází k využívání člověka jako prostředku k dosažení cílů. Jde o oblast, která bude zvlášť citlivá a nejrůznější řešení by měla hledat 15 cesty, jak tento možný problém minimalizovat. Lze očekávat existenci určitého škálování, které ale může být v rukou manažerů užito špatným způsobem.19 V tomto ohledu lze říci, že může jít o problém úzce související s demokracií a svobodou. Jestliže bude schopen nějaký režim lépe porozumět chování svých občanů, může s nimi také mnohem lépe manipulovat nebo proti nim zasahovat. Prostým kamerových systémem je hledání činností neznámých disidentů problematické, ale pokud užijeme metody masivní analýzy, lze je do velké míry rychle a snadno odhalit. Netriviálním problémem je také informační přetížení, což je silný psychologický faktor. Člověk v informační společnosti je již dnes obklopen ohromným množstvím dat a informací, které k němu přistupují téměř ze všech stran a neustále. Aktivně probíhají metody hledání filtrů (ať již na úrovni osobní či třeba firmy), které by tento tok omezovaly. Big data jdou ale přesně opačným směrem a poskytují další obrovské množství dat navíc. Může tak dojít k dalšímu prohloubení informační propasti a určité bariéře mezi uživateli a jejich sociální a intelektuální připraveností a technikou. Posledním problémem, který by měl být jistě zmíněn, je upadající matematická gramotnost. Bez ní není možné efektivně systémy na zpracování big data nejen navrhovat, ale také ani používat. Běžný uživatel ani manažer často neví nic o regulárních výrazech, funkcionálním programování ani o obyčejné matematické analýze. Užívání nástrojů pro big data tak bude často buď unifikované, což ale bude degradovat jejich možnost, nebo hrozí riziko zcela chybné interpretace dat. V tomto ohledu bude třeba zřejmě zásadním způsobem navýšit investice do vzdělávání v oblastech, které byly dlouhou dobu za popelku mezi manažerskými dovednostmi – totiž pokročilé matematiky a teoretické informatiky. Současné aplikace Big data jsou trendem, který je již nějakou dobu řešený a není divu, že oblastí již hotových, funkčních řešení je relativně velké množství. Prvním příkladem mohou být například všechny sociální sítě, které se musí vypořádávat s velkými daty jak v objemu, tak také v rychlosti zpracování, často také v relativně složité struktuře. Již bylo řečeno, že se často volí redundantní řešení, kdy existuje jedna (či více) key-value databáze (někdy se také kombinuje více druhů dohromady), ve kterých lze vyhledávat mimořádně rychle a klasická SQL, která zajišťuje ACID a plné vyhledávání podle libovolných parametrů. Tento systém využívají například LinkedIn, Facebook či Twitter.20 Facebook mimo to experimentuje s funkcí Graph search,21 která by měla umožnit analyzovat přátele daného uživatele, zjistit kolik a kdo z nich má domácí zvíře, jaké mají rádi restaurace nebo kolik mají sourozenců. Jde tedy o pokročilou analýzu toho, co si může každý udělat sám, avšak systém pro to nabídne dostatečnou podporu a automatizaci. Námitky proti tomuto způsobu práce s daty jsou etické – nejde jen o omezování soukromí, ale také se otvírá prostor pro ještě snazší manipulaci s uživateli, jejich názory či politickým přesvědčením. CERN je jednou z největších institucí, které disponují vlastní gridovou sítí a mají velký dopad na to, jakým způsobem se vyvíjejí technologie pro distribuované zpracování dat. Konkrétně gridová síť 19 Pěkným přehledem, i když staršího data, je EDMUNDS, Angela; MORRIS, Anne. The problem of information overload in business organisations: a review of the literature. 20 Seriál Nerelační databáze. Zdroják 21 Podrobněji KHAN, Arijit, et al. Neighborhood based fast graph search in large networks. 16 CERNu umožňuje zpracovat informace z urychlovačů. Samotné experimenty produkují ohromné množství dat, které prochází primárním filtrováním, až po něm jsou data posílána do centrálního úložiště, odkud si je pro zpracování stahují jednotlivé uzly sítě. Hadoop umožňuje zpracování dat díky rozprostření až na 4000 clasterů.22 Pro ukládání dat se využívá speciální souborový systém HDFS. Systém dnes využívají v různých modifikacích firmy jako Amazon, eBay, Facebook, Yahoo či Twitter a IBM. Cílem je budování uzavřených sítí pro určitý druh výsledků. Jde spíše o platformu na podporu výpočtů pro další služby než o hotové řešení, které lze dále používat. 22 APACHE. Welcome to Apache™ Hadoop®! 17 Virtualizace Původní význam termínu virtualizace, pocházející z 60. let 20. a označuje vytváření virtuálních strojů za pomoci kombinace hardwaru a softwaru. Jednotlivý uživatelé mohli pomocí svých tenkých klientů přistupovat k výkonu a datům centrálního počítače a měli pocit, jakoby tento jejich stroj obsluhoval pouze je. S počtem připojených uživatelů se zvyšovala jen odezva systému, ale neklesaly možnosti a množství nástrojů, které mohl člověk využívat. Virtualizace je často vnímána jako jeden z nejdůležitějších a největších trendů v ICT v současné době, ale přesto lze říci, že na její úplné rozšíření se ještě stále čeká a možností pro její intenzivnější využití. Obecně máme za to, že vrchol ve využívání cloudových aplikací a virtualizace obecně ještě nenastal. Fundamentální myšlenkou celé virtualizace je vytvořit abstraktní vrstvu mezi hardwarem a softwarem, který na něm funguje. Umožňuje tak pružně alokovat přesně potřebné výpočetní prostředky podle aktuálních požadavků daného procesu. Velká část cloudových řešeních stojí na myšlence, že uživatelé potřebují výpočetní výkon v různém čase. Jedna organizace tak může disponovat velkými serverovými farmami a poskytovat je za úplatu koncovým uživatelů. Ti mají požadavky různě rozprostřeny v čase, takž by se vždy měli dostat k takovému výkonu, jaký je aktuálně potřeba. Z hlediska vývoje pak může programátor pracovat jen s parametry abstraktní vrstvy, aniž by se musel příliš zajímat o to, jaký je skutečný hardware pod ní. Jde o obecný přístup, který se v informatice a ICT používá velice často. Zatímco virtualizaci některých prostředků si člověk ani neuvědomuje (například paměti v počítači), jiné komponenty je nutné virtualizavat složitěji či speciálními nástroji. Obecně by mělo platit, že se virtualizované prostředí se může snáze přizpůsobit potřebám uživatelů, umožní jim abstrahovat se od nepotřebných detailů a věnovat se tomu, co skutečně potřebují. Z druhé strany je pak vývoj virtualizačních nástrojů důležitý a zajímavý z hlediska tvorby jednotlivých vrstev a možností, které takové řešení přináší. 18 VirtualBox – nástroj na virtualizaci operarčních systémů.23 Soudobá technická praxe Samotná virtulizace může působit často zbytečně složitým dojmem, jako by její nasazení nebylo z hlediska celkové výhodnosti výhodné a praktické. Jejím cílem je především vytvoření jednoduchého prostředí pro koncového uživatele, což vede právě k vysokým nárokům na celkovou snadnou použitelnost. Tvorba virtualizačních nástrojů dnes patří mezi největší a nejdůležitější oblasti vývoje aplikací a prosazuje se téměř všude. Tvorba abstraktních vrstev je vhodná tam, kde je třeba z heterogenní sítě vytvořit homogenní, kde k jednomu zdroji musí přistupovat větší množství uživatelů nebo třeba pro snadné zpřístupnění nástrojů či dat širšímu množství uživatelů. V následující části se podíváme, pro větší přehlednost, na dvojí dělení virtualizace. Jednak z pohledu její míry a praktického řešení, ale také z hlediska různých druhů jejich využití, neboť je značný rozdíl mezi virtualizací serveru a například aplikace. Většina počítačů dnes pracuje (až na drobné odlišnosti) na principu von Neumanova schématu, které obsahuje procesor, sběrnice či vstupní zařízení. Virtualizace tak nedělá nic jiného, že místo skutečných fyzických komponent vytváří virtulální.24 Nejvyšší míra virtulizace je spojená s emulací či simulací celého stroje. Tato technika se často používá například pro vývoj aplikací pro mobilní telefony, kde nemáme na počítači k dispozici patřičný procesor ani operační systém, ale celé zařízení je kompletně simulováno pomocí speciální aplikace. Toto řešení se využívá také pro studium běhu operačního systému, neboť jeho pády nijak nebrání možnosti zkoumat problémy, které k němu vedly. Plná virtualizace si klade za cíl běh více instancí operačního systému vedle sebe. Každá instance má přitom přidělený vlastní virtuální stroj s předem předdefinovanými parametry (či si je dynamicky alokuje). Na jednom počítači s jedním klasickým operačním systémem pak mohou, pomocí nástrojů jako je VirtualBox, Virtual PC či VMware Workstation a Server, pracovat různé operační systémy. Dříve byla velice významná částečná virtulizace, která na rozdíl od plné nesimuluje všechny komponenty, ale pouze jejich část. Jde o přístup, který byl používán například v systémech IBM M44/44X pro přístup většího množství uživatelů pomocí monitoru k jednomu výpočetnímu výkonu serveru, který nabízel například jen procesor a paměť. Velice užitečným konceptem je také paravirtualizace, která se vyznačuje tím, že provádí jen částečnou abstrakci na úrovni virtuálního počítače, přičemž využívá toho, že některé komponenty jsou ve virtuálním a skutečném stroji identické. Tím klesají nároky na režii a zvyšuje se možnost výkonu. Paravirtualizace se nejčastěji týká procesorů a například Intel ji podporuje přímo na úrovni hardwaru, což je z hlediska vhodného návrhu systému velice důležité. Obecně platí, že čím lépe jsou využívány speciální vlastnosti procesorů (práce s vlákny, virtualizace, podpora více jader atp.), tím lepší může být výkon. Další možností je virtualizace na úrovni operačního systému, kdy jeden počítač se jeví okolí jako celá skupina. Pracuje přitom na jednom jádru operačního systému, ale jsou nad ním vytvořené jednotlivé 23 VirtualBox. Wikipedia. 24 Podrobněji MATYSKA, Luděk. Virtualizace výpočetního prostředí. 19 instance. Tato metoda se nejčastěji užívá u virtualizace serverů, vyžaduje podporu na úrovni jádra operačního systému. Mezi příklady konkrétního provedení patří například Linux-VServer, Virtuozzo či OpenVZ. Nejvyšší skupinou virtualizačních nástrojů jsou ty, které pracují na úrovni virtualizace pro aplikace. Jde vlastně o klasický software, který vytváří pro další aplikace abstraktní vrstvu s předem definovanými vlastnostmi. Zřejmě nejznámějším příkladem je Java Virtual Machine, která je vyvíjena pro většinu operačních systémů, ale koncový vývojáři v jazyce Java se nemusí vůbec starat o to, v jakém operačním systému či nad jakým hardwarem bude konkrétně ta jejich provozována. Pokud jde o příklady využití virtualizace na jednotlivých vrstvách, tak lze zmínit například existenci virtuální paměti (každý proces vidí svoji část operační paměti bez ohledu na činnost další nebo její fyzickou podobu), RAID diskové pole (dva a více disků vypadají jako jediný), multitasking (vytváří dojem paralelně běžících aplikací), DOS Box (emulace operačního systému DOS v Linuxu) či právě zmíněný Java Virtual Machine. Druhé významné dělení je podle druhu virtualizace. První skupinou je virtualizace serverů, která je dnes zřejmě komerčně nejdůležitější a používá se již zcela běžně. Základní myšlenkou je rozdělení jednoho fyzického serveru na několik virtuálních. Každý virtuální server pak může provozovat vlastní operační systém a aplikace. Výhodné z hlediska výkonu je, pokud je na jednom serveru provozováno více strojů s jedním operačním systémem, které by mohly sdílet jediné jádro operačního systému. Virtualizace serverů slouží například pro oddělení různých dílčích funkcí – jeden virtuální stroj má na starosti poštu, druhý slouží pro práci se soubory, třetí řídí přístup do sítě, další například obsluhuje databáze či tisk. Každý přitom může být nastaven individuálně, přesně podle potřeb podniku. Lze tak snadno kombinovat více rodin operačních systémů, aniž by vznikala potřeba disponovat větším množstvím samostatných zařízeních. Druhou oblastí je virtualizace aplikací, které jsou poskytovány dynamicky, pomocí SMB si může systém objednat jen potřebné aplikace dle potřeb jednotlivých uživatelů. Moderní cloudové a virtualizační technologie se v této oblasti nesoustředí na budování infrastrukutury, ale především na tvorbu komplexních systémů s vysokou přidanou hodnotou. Ta spočívá nejen ve speciálních repozitářích aplikací, které mají uživatelé k dispozici, ale také v prostupnosti skrze platformy a větší možnosti v oblasti spolupráce mezi uživateli. Podobná řešení jsou také užitečná z hlediska snadného transferu dat. Poslední varianta, která je stále spíše v plenkách, ale postupně se rozvíjí, je virtualizace celých desktopů. Místo toho, aby většinu výpočetního výkonu obstarávaly koncové stanice, je tato úloha přenesena na server, který také spravuje data a aplikace. Uživatelům tak postačí se přihlásit do firemní sítě a mají k dispozici veškeré potřebné vybavení i infrastrukturu. Jde o typické řešení pro BYOD, kde odpadají problémy se specifickými zařízeními a jejich vlastnostmi. Současně se umožňuje koncovým uživatelům, aby si volili pracovní nástroj nikoli s ohledem na firemní kulturu a infrastrukturu, ale pouze na cenu a to, jak jim osobně vyhovuje. Zajímavou oblastí je také otázka, jak zajistit přístup k datům aplikacím i dalším službám sítě ve chvíli, kdy není k dispozici připojení. Možností řešení je celá řada. V případě, že jde o nástroje pracující v HTML5, tak jsou k dispozici funkce pro pozdější offline zpracování. Často se využívá ukládání dat a 20 aktuálně používaných nástrojů do mezipěměti. Obecně lze rozlišovat mezi konceptem streamovaného přenosu dat a sdílenými desktopy, kde je zajištění synchronizace již relativně jednoduchou záležitostí a odpojení od sítě uživatele nijak neomezuje.25 V současnosti lze sledovat zajímavý trend, který směřuje k maximálně komplexním řešením, která by umožňovala nabízet maximální úroveň virtualizace na všech stupních vývoje a dokonalé škálování. Poptávka po prosté virtualizaci serverů bude zřejmě klesat na úkor virtualizace desktopů či komplexních služeb. Jedním z velkých témat je pak práce a podpora mobilních zařízení, ať již formou podpory výkonu vzdáleným zpracováním nebo třeba právě virtualizací aplikací či desktopu. Je třeba pamatovat na to, že cílem všech virtualizačních metod a technik je především spokojenost a efektivita koncového uživatele, kterého příliš nezajímá, zda potřebuje plnou či paravirtualizaci, ale požaduje přístup k vlastním datům, potřebným aplikacím i výpočetnímu výkonu co možná nejrychleji a nejpohodlněji. Jakkoli složité a robustní řešení musí být především z hlediska uživatelského komfortu co možná nejpříjemnější a nejjednodušší. Extrémním způsobem virtualizace je cloud, který přenáší výpočetní prostředí, data i aplikace zcela mimo organizaci, což je z hlediska technické náročnosti nejsnazší cesta, ovšem je třeba pamatovat na řadu rizik bezpečnostního i konfiguračního charakteru. Silné stránky a možnosti Hlavní výhodou virtualizace je zřejmě její ekonomický rozměr. Mít jeden server, který je virtualizován, přináší velké finanční úspory jak malým či středním firmám, tak také velkým korporacím. Jde o důvod, pro který se většinou virtualizace používá. Díky této technice lze snížit jak nároky na páteřní infrastrukturu podniku, tak také cenu pracovních stanic, které mohou část svého výkonu delegovat na příslušné servery. Další oblastí úspor jsou snížené nároky na správu koncových zařízení – aplikace lze snadno virtualizovat a nabídnout je tak právě těm uživatelům, kteří je aktuálně potřebují či chtějí využívat. To umožňuje efektivní nasazení plovoucích licencí, které omezují počet souběžně pracujících aplikací jednoho druhu v jeden okamžik. Místo nutnosti kupovat licence na všechny počítače nebo složitého řízení licenčních politik lze zvolit právě toto řešení, kdy server triviálně v každý okamžik ví, kolik a jakých aplikací ve firmě běží. Z dlouhodobých statistik pak lze dobře nastavit celkovou licenční politiku, což opět vede k úsporám. Jestliže je ve firmách užíváno větší množství různých počítačů či dokonce politika BYOD, může virtualizace efektivně pomoci se řízením a administrací celé takto koncipované sítě a standardizovat tak rozhraní a uživatelské prostředí pro všechny uživatele. Virtualizace umožňuje používat aplikace napříč platformami, což znamená, že koncoví uživatelé nemusí být v principu omezeni tím, zda chtějí pracovat s aplikací vytvořenou v HTML5, Pythonu pro Linux nebo C++ pro Windows. Teoreticky lze setřít rozdíly mezi tablety a stolními počítači a delegovat část výpočetního výkonu na server, což má za následek větší pracovní efektivitu zaměstnanců. Každý z nich může používat oblíbený operační systém, ale přitom mít přístup ke všem firemním službám. 25 LU, Wei Jun; CUI, Bo Long; HU, Su Rong. Visualization Engineering Simulation Based on HTML5 and Cloud Computing. 21 Nezanedbatelným prvkem virtualizace je také úspora elektrické energie – díky možnosti používat méně výkonné počítače a menší množství serverů dochází k nižší spotřebě elektrické energie, což má ekonomické i ekologické konsekvence. Ukazuje se, že pro řadu činností by dostačovala starší zařízení, která musí být v klasických sítích již nahrazena novými. Díky virtualizaci lze efektivně škálovat výkon, ať již vlastních nebo pronajatých serverů. Například server pro stránky, které prodávají lístky na koncerty, bude mít jistě značně rozličnou zátěž v okamžiku, kdy je otevřen prodej nových lístků, než dva nebo tři dny poté. Díky možnosti dynamické alokace zdrojů tak není nutné mít k dispozici silně předimenzovanou infrastrukturu. Virtualizaovné systémy, ať již jde o servery či aplikace jsou snadno zálohovatelné a jejich obnovení je mimořádně rychlé. Nahradit jeden virtuální stroj jeho identickou kopií v případě pádu, útoku či jiných problémů je otázkou několika málo vteřin či minut, nikoli dlouhých hodin s novou instalací a konfigurací. Jde tak o významný prvek v bezpečnostní politice organizace. Tyto zálohy mohou být také snadno uloženy do geoclusterů, které jsou rozmístěny na různých místech na Zemi, což zvyšuje odolnost systému proti přírodním katastrofám, výpadku proudu či válečným konfliktům. Další výhodou může být snadný přechod z testovací verze prostředí na plnou, který je možné realizovat jediným příkazem záměny dvou virtuálních strojů. V běžném provozu je pro testování nutné mít buď identický server, který je pak přepojen nebo hledat cesty složitějších a méně pohodlných řešení vyžadujících delší odstaváky. V neposlední řadě pak virtualizace umožňuje podstatně snazší vývoj aplikací. Programátor musí počítat jen s prostředím, které je emulováno a tím pádem také garantováno virtualizačními nástroji, aniž by musel uvažovat specifika hardwaru či operačního systému, pod kterým pracuje. Z vývojářova operačního systému lze testovat software pro jiné platformy, což může být pro vývoj buď zcela nezbytné (například v případě mobilních zařízení), nebo to zvyšovat efektivitu a komfort práce, což opět vede k úsporám. Pokud je systém virtualizace propojený s internetem, umožňuje přístup k datům a aplikacím prakticky odkudkoli a kdykoli, což je mimořádně důležitá vlastnost z hlediska podpory virtuálních týmů či vzdálené spolupráce. Nemělo by se zapomínat ani na dva významné trendy, které lze v této oblasti identifikovat. Jednak jde o podporu mobilních zařízení a jejich výkonu na straně serveru, a za druhé budování sítí s extrémní odolností vůči výpadkům. Slabé stránky a možné problémy V oblasti slabých stránek a nevýhod virtualizace je dobré situaci rozdělit na dvě velké skupiny. První se týká problémů virtualizace jako takové, druhá pak její extrémní formy, tedy cloudovým technologiím. Prvním problémem, který souvisí s virtualizací, je přechod o klasických serverů k těm virtuálním. To se neobejde bez relativně velké práce s hledáním vhodné platformy, tvorbou virtuálních strojů (což je činnost srovnatelná s instalací fyzického serveru) a přenosu obsahu. Poslední položku lze umenšit pomocí nástrojů P2V - physical to virtual. Počáteční nároky, možné odstávky a ladění jsou tak nezbytnou investicí, se kterou je třeba počítat. Druhým problémem, který souvisí s klasickou virtualizací, je pokles výkonu. Ač virtualizace paradoxně slouží k tomu, aby uspořila prostředky a výkon, samotné virtualizační mechanismy mají netriviální 22 režii jak procesoru (situace je lepší na nových procesorech, které ji prostřednictvím speciálních funkcí podporují), tak také a paměti RAM. K velkým problémům může docházet také na úrovni disků, pakliže jsou použity klasické disky a jeden slouží více virtuálním strojům, může docházet k významnému zpomalení celého systému. Problémem je často také komplikovanější správa licencí a to hned v několika rovinách. Předně je třeba říci, že se často licence pro virtuální stroje podléhají jiným pravidlům než pro fyzická zařízení. Jestliže virtualizace softwaru umožňuje snížit náklady co do množství licencí, často vede k velké režii a nákladům spojených se specifiky virtualizace. Dalším problémem může být zálohování a testování, kdy je třeba (kvůli zpravidla nižší ceně) pracovat s dalším druhem licencí, jestliže se má organisace chovat legálně. Specifickou novou třídu problémů může přinášet také nasazení cloudových technologií, proti kterým se staví například Richard Stallman: „Je to [cloud] stejně špatné, jako používání proprietárních programů. Výpočty dělejte na vlastním počítači se svou kopií programu, která respektuje zásady svobodného softwaru. Jestliže používáme uzavřený program nebo webový server patřící někomu jinému, nemáte žádnou obranu, stáváme se hračkou v rukách toho, kdo vyvinul ten software.“26 Tato námitka je relativně častá a oprávněná. Postavit firemní infrastrukturu na službách, které není možné přizpůsobit, u nichž nikdo nezná jejich životnost a to, jakým způsobem se budou měnit, je na jedné straně možná pohodlné, ale současně mimořádně riskantní. Neméně diskutovaným problémem je bezpečnost.27 Nejde přitom jen o sledování a čtení obsahu tajnými službami, ale především o možnost úniku dat ve prospěch konkurence. Jestliže jsou užívány například virtuální disky pro ukládání dat bez užití šifrování, je nemalá možnost jejich zcizení při útoku na službu poskytující cloudové technologie. Uživatel nemá v podstatě žádnou možnost, jak ovlivnit či kontrolovat míru zabezpečení dat. Cloudové technologie jsou také silně závislé na internetu. Jestliže existují mechanismy, které jsou schopny si více méně poradit s výpadky, celková funkcionalita systému není bez internetu zajištěna a v případě klasických cloudových služeb to může znamenat velké problémy. Cloud může také snadno posloužit jako nástroj pro nelegální činnost či kyber útoky. Příkladem může být útok na společnost Sony, při kterém byla ukradena data téměř o sto miliónech uživatelích.28 Snadno lze tyto technologie použít pro DDoS útok, aniž by bylo nutné budovat botnet síť. V neposlední řadě je zde problém s migrací, která je tím náročnější, čím více je cloud používán. Zatímco přechod ze SaaS je téměř nemožný, v případě IaaS je situace příznivější, ale i tak případný přechod na jinou platformu přináší značné finanční náklady. To vede k silné závislosti organisace na jedné společnosti a produktu, který ji v budoucnu může působit velké technologické i finanční problémy. 26 JOHNSON, Bobie. Cloud computing is a trap, warns GNU founder Richard Stallman. 27 PEARCE, Michael; ZEADALLY, Sherali; HUNT, Ray. Virtualization: Issues, security threats, and solutions. 28 JASON, Mick. dAnonymous Engages in Sony DDoS Attacks Over GeoHot PS3 Lawsuitos. 23 Aktuální projekty Microsoft Hyper-V je hypervizorově stavěný serverový systém, což znamená, že běží v jednom operačním systému (Windows Server 2008, Windows 8), který umožňuje realizaci dalších virtuálních strojů s vlastními operačními systémy. Takto podporovány jsou všechny verze Windows a vybrané Linuxové distribuce.29 VMware Infrastructure30 je komplexní balík řešení založený na VMware ESX Server spolu s dalšími doplňky a službami. Pro běh je určená speciální linuxová distribuce a může fungovat jen na podporovaných počítačích. Umožňuje delegování zdrojů, správu virtuálních serverů, má vlastní souborový systém nebo pokročilý monitoring. Jde o jedno z nejrobustnějších virtualizačních řešení. Pro méně náročné požadavky je určený zdarma dostupný VMware Server. VirtualBox je bezplatný nástroj, který umožňuje na jednom počítači provozovat více operačních systémů současně. Podporuje tvorbu screeshotů, sdílenou schránku mezi instancemi, obsahuje Seamless mode, který umí virtualizovat dílčí aplikace, aniž by byl vidět zbytek systému (například Word v Linuxu) a řadu dalších funkcí. Oficiálně jsou podporovány Windows, Linux i OS X ve většině rozšířených verzí, pro virtualizaci k nim pak přibývají také Solaris, OpenBSD či MS Dos a řada dalších.31 Java Virtual Machine umožňuje běh aplikací napsaných v jazyce Java opět za pomoci virtualizace. Takové řešení umožňuje snadný multiplatformní vývoj a velkou bezpečnost. Na druhé straně je zde nezanedbatelná režie spojená s iniciací JVM, zpracování bytecode atp. Zajímavostí je, že JVM dnes podporuje také jiné jazyky jako je Python, Ruby a řada dalších. Některé operační systémy mají snahu jej mít jako komponentu či modul ve svém jádře. Wine slouží pro spouštění aplikací určených pro Windows v Linuxu s tím, že místo úlohy virtuálního stroje či emulátoru nabízí pouze vhodně poskládaný soubor API. DosBox pak slouží pro emulaci MS DOS v Linuxu a ve Windows. Aplikací, které umožňují virtualizaci na nejrůznějších úrovních, jsou stovky, ale lze říci, že největší potenciál mají aktuálně ty, které usilují o robustní, funkční a komplexní řešení pro celou organizaci. 29 DODDAVULA, Shyam Kumar; AGRAWAL, Ira; SAXENA, Vikas. Cloud Computing Solution Patterns: Infrastructural Solutions. 30 KEITH JR, Robert O. Virtual recovery server. 31 ORACLE. VirtualBox. 24 Člověk a počítač Srovnávání člověka a počítače patří nepochybně mezi činnosti, které zaměstnávají filosofy, sociology, ale také informatiky. Relativně nově se rozvíjející oblast sociální informatiky si přirozeně klade za cíl pomoci pochopit, jak lze lidské chování, myšlení, emoce či řeč zpracovávat, jaké jsou v nich společné znaky a jak by bylo možné tyto procesy algoritmizovat. Historicky vznikají dvě odvětví, která k sobě mají v tomto ohledu (ale také z pohledu technického provedení) velice blízko – zpracování přirozeného jazyka (od převodu textu na zvuk a opačně, až po pochopení významu) a umělá inteligence. Relativně novou je pak oblast zpracování emocí, které se ukazují jako zcela nezbytné pro pochopení člověka a jeho potřeb. Sémantické technologie hrají již dnes v nejrůznějších aplikacích (především mobilních) zásadní roli – od hlasového asistenta Siri v Apple, až po diktování textu v Androidu. Také proto má smysl o všech těchto technologiích uvažovat v jednom logicky propojenému celku. Naopak se přímo nebudeme věnovat problematice umělé inteligence, která stojí v pozadí všech těchto aktivit, ještě se s některými jejími fragmenty setkáme v kapitole věnované síťovým technologiím. Z hlediska aplikačního by pak na tuto oblast přirozeně navazoval uživatelský design, případně otázka HCI (Human–computer interaction). Jde o část informatiky, která je mimořádně těsně spojená s vědami sociálními – ať již jde o sociologii, jazykovědu nebo psychologii. Jejich dobrá znalost či orientace v nich jsou pro vývoj úspěšných aplikací zcela nezbytným předpokladem. 25 Sémantické technologie: web a desktop Sémantické technologie, bez ohledu na to, zda jsou implementovány na webu či na desktopu, se snaží změnit skutečnost, že počítač pracuje s daty, kterým rozumí jen ve velice omezené míře. Jako první přišel s touto myšlenkou zakladatel klasického webu Tim Berners-Lee v roce 2001, který upozornil na skutečnost, že web je stále rychleji rostoucí změtí stránek, ve kterých se lze jen obtížně vyznat.32 V současné době lze s dobrou přesností říci, že web roste exponenciálně. Sémantické technologie si tak obecně kladou za cíl především strojové zjištění obsahu dokumentu a jeho další zpracování a to v co možná nejobecnější míře. Díky tomu by bylo možné mnohem lépe řešit problémy s relevancí výsledků ve vyhledávání, neboť by vyhledávací stroje znaly skutečné informace, které by bylo možné analyzovat a srovnávat. Sémantický web, který je z obou konceptů podstatně populárnější a známější, přitom nemá zcela jednoznačnou definici. Nejčastěji se můžeme setkat s přístupem ideovým, tedy že jde o web znalostí či informací. Druhou možnou definicí, která se snaží odpovědět také na otázku jak toho docílit, může být, že „sémantický web je rozšířením současného webu, v němž informace mají přidělený dobře definovaný význam, který počítačům a lidem umožňuje lépe spolupracovat. Sémantický web představuje reprezentaci dat na webu. Je založen na technologii Resource Description Framework (RDF), která integruje širokou škálu aplikací využívajících syntaktický zápis v XML a identifikátory URI pro pojmenovávání.“33 V této definici je možné zvýraznit několik skutečností – především je sémantický web rozšířením konceptu toho stávajícího. Představy, že půjde o budování webu zcela nového, se nikdy nezrealizovaly. Dále je zde důležitý prvek užití RDF jazyka, který umožňuje popisovat data a vztahy mezi nimi, takovým způsobem, aby byla pro stroje „pochopitelná“ jako informace. Sémantický desktop se pak snaží o činnost velice podobnou, jen na úrovni desktopu (se všemi jeho specifiky oproti webu), s tím, že i prostředky, jak toho dosáhnout jsou často analogické. Mimo samotné pochopení významu dat ale přidává také některé další zajímavé funkce, jako je prostupnost dat mezi aplikacemi či jejich sdílení s dalšími uživateli. 32 BERNERS-LEE, Tim, et al. The semantic web. 33 MATULÍK, Petr, PITNER, Tomáš. Sémantický web a jeho technologie. 26 Jednotlivé vrstvy v případě sémantického webu.34 Soudobá technická praxe Tim Berners-Lee na zmíněné přednášce, kde představil nutnost existence sémantického webu, uvádí příklad, kdy sestra volá bratrovi, že jejich matka potřebuje fyzioterapeuta. Telefon mu začne zvonit až poté, co skončí jeho oblíbená píseň a CD přehrávač se automaticky zastaví. Po domluvě je poslán pokyn s parametry centrálnímu registru odborníků s požadavkem na hodnocení pracovníka a jeho vzdálenost od matky. Vše je automaticky vyhodnoceno a zpracováno. O matku je tak postaráno kvalitně a během několika málo sekund. Tento příklad pěkně identifikuje to, o co v sémantickém webu jde – automatickou analýzu a práci s informacemi. Technicky je dnes vše založeno na Resource Description Framework (RDF), která obsahuje celou řadu protokolů, předpisů a nástrojů, které využívají syntaktický zápis v XML a identifikátory URI pro pojmenovávání objektů a adres.35 Sémantický web se tak skládá ze dvou základních částí. Na jedné straně stojí data, která jsou zapsaná pomocí zmíněného RDF (respektive jeho variant a odvozenin), a pak zde stojí ještě softwarový agent (označení programu s vlastním rozhodovacím systémem či umělou inteligencí), který umí s takto zapsanými daty pracovat. 34 Semantic web. Wikipedia. 35 Viz například MCILRAITH, Sheila A.; SON, Tran Cao; ZENG, Honglei. Semantic web services. nebo ANKOLEKAR, Anupriya, et al. DAML-S: Web service description for the semantic web. 27 Hlavní myšlenkou RDF je identifikovat v textu jednotlivé objekty a popsat vztahy mezi nimi. V oblasti sémantického webu se proto užívá triáda subjekt – predikát – objekt. To na první pohled vypadá relativně snadno, ale je třeba zdůraznit, že například věty „Tim Berners-Lee představil sémantický web“ a „Sémantický web představil Tim Berners-Lee“ mají sice stejnou pragmatickou výpověď, ale z hlediska RDF mají zaměněný subjekt s objektem. U složitějších vět je pak situace podstatně obtížnější. Z hlediska softwarového zpracování se pak nejčastěji užívá grafových algoritmů – vlastnosti jsou jeho hrany, které jsou orientovány od podmětu k předmětu, které tvoří jeho vrcholy. RDF je klasickým příkladem uspořádané trojce, což umožňuje nasazení robustních a známých matematických řešení na jeho zpracování. Z hlediska vzhledu dokumentu je RDF transparentní, takže není na první pohled vidět, zda text tyto metainformace obsahuje či nikoli. Z této skutečnosti plyne, že jde o konzervativní rozšíření klasického webového konceptu. Dnešní hotová webového řešení ale ukazují, že takový postup je zatím poněkud obtížně uskutečnitelný a vznikají spíše izolované služby a řešení, která pracují s uzavřenou vlastní proprietární databází, nikoli s otevřeným webem. Jistým mezistupněm mohou být mikroformáty, které jsou jednoduché na implementaci a jsou relativně hojně rozšířené. Jedná se o způsob zápisu strojově čitelných informací za využití stávající XHTML struktury, a to především v partikulárních oblastech. hCalendar například umožňuje z webové stránky vyexportovat data do kalendáře uživatele, pomocí XFN lze uvádět vztahy mezi osobami (avatary) v sociálních sítích, což umožňuje například automaticky sdělit, kdo je otcem či bratrem toho kterého uživatele. Z dalších uveďme například hAtom či hCard.36 Na myšlenku sémantického webu navazuje sémantický desktop, což je mimořádně komplexní a ambiciózní projekt, který se snaží převod dat na informace zajistit na úrovni desktopu. Nepočítá ale s RDF popisem dokumentů, které by musel provádět uživatel, ale sází na možnosti, které nabízejí jednotlivé aplikace, které různá data zpravují, mataformáty, které jsou vytvářené automaticky nebo na uživatelovo občasné doplnění nějakého popisu či tagu v přirozeném jazyce. Sémantický desktop užívá poněkud jiných ontologií pro popis vztahů mezi objekty a to čtyř prvkový:37  Jedinec je základním stavebním objektem, který může být konkrétní živý i neživý objekt (člověk, kámen, stůl, graf) nebo také zcela abstraktní objekt (číslo, pojem, událost, axiom,..).  Třída je množinou jedinců stejného druhu. Je možné budovat podtřídy. Třída může obsahovat současně podtřídy i jednotlivce.  Atribut popisuje určitou vlastnost, charakteristiku či parametr jedince. Každý atribut určitého jedince obsahuje přinejmenším název a hodnotu. Pomocí atributů tedy definuje vlastnosti jednotlivých jedinců.  Vazba je jednosměrné nebo obousměrné propojení dvou jedinců. Toto rozdělení lze demonstrovat na jednoduchém příkladu. Pokud chceme vytvořit ontologii počítače, pak vytvoříme jedince (počítač), kterého zařadíme do třídy (elektronika) a přiřadíme mu 36 KHARE, Rohit; ÇELIK, Tantek. Microformats: a pragmatic path to the semantic web. 37 ČERNÝ, Michal. Stručný úvod do konceptu sémantického desktopu. 28 atributy (HDD = 320 GB; RAM = 2 GB; vyrobce = IBM, typ = desktop, Usb3 = no) a samozřejmě přidáme vazby na další objekty reálného světa (například že je to můj pracovní nástroj nebo že stojí na stole).38 K tomu, aby bylo možné s ontologiemi na počítači reálně pracovat, je třeba, abychom měli jednak formální jazyk, kterým je budeme zapisovat (což je u Nepomuku39 RDF, respektive RDFS, OWL a NRL) a pak také nastavené atributy a třídy, které budeme chtít používat. To nám umožní s daty provádět rozumné operace. Konkrétně u Nepomuku je zatím zavedeno pět ontologických skupin (situace je ve skutečnosti o něco složitější a například NIE představuje celou ontologickou rodinu):  NIE slouží pro modelování informací, které jsou běžnou součástí počítačových souborů. Jde například o metadata o souborech, textových dokumentech a e-mailech, kontaktech, EXIF či ID3.Jeho součástí je také NFO, které slouží pro popis vztahů mezi soubory a zachycení informací, které jsou v nich obsaženy.  NRL je určený na práci s pojmenovanými grafy.  NAO slouží především pro popis grafů, které jsou vytvořené pomocí NRL.  PIMO je zaměřen především na integraci údajů o osobách (ale i jiných reálných objektech).  TMO slouží pro modelování osobních úkolů, všeobecně známých jako to-do list. Ontologií avšak může být více a neustále se diskutuje o zavádění dalších. Zde je možné vidět dva základní parametry toho, kolik ontologií je pro popis optimální. Na jedné straně je možné říci, že čím jich bude více, tím jemněji, jednodušeji a přesněji můžeme popisovat jednotlivé objekty. Na druhé straně nám ale roste náročnost na zpracování takových dat a je obtížnější mezi nimi budovat nějaké vazby. Obecně se pak koncept sémantického desktopu koncentruje na pět základních oblastí výzkumu. První oblastí je vyhledávání, což je prvek totožný s tím, který je znám ze sémantického webu. Cílem je prohledávání informací a nikoli pouze data. Prezentace dobrých výsledků vyhledávání a spojení se zpracováním přirozeného jazyka, se jeví jako mimořádně atraktivní. Druhá oblast se týká integrace jednotlivých aplikací, které v rámci sémantického desktopu vzájemně spolupracují na výměně snadno pochopitelných dat ve formě patřičných ontologií. Jednou z klíčových vlastností má být také schopnost odvozovat z informací nové závěry či dolování dat. Sémantický desktop nemusí prohledávat jen pevný či síťový disk, ale může získávat data z firemních databází znalostí, spolupracovat s webovými řešeními atp. Sociální vrstva má pak zajistit snadnou výměnu informací mezi jednotlivými počítači, což je důležitý prvek pro jejich nasazení do firemní infrastruktury. Sémantický web ani desktop nepředstavují izolovanou technologii, která sama o sobě povede k lepšímu vyhledávání, ale do velké míry v sobě integrují celou řadu technologií z jiných oblastí informatiky. Zmínit lze především zpracování přirozeného jazyka, který by měl sloužit pro oboustrannou komunikaci – jak mezi člověk a počítačem, tak také počítačovou odezvou směrem k uživateli. 38 SemanticDesktop.org: OSCAF/NEPOMUK Ontologies. 39 Nepomuku, což je dnes nejrozšířenější software na provoz sémantického desktopu se podrobně věnujeme v závěru kapitoly. 29 Další oblastí, která se nabízí, je zpracování obrazových či zvukových dat, ve kterých je třeba také vyhledávat a která se zatím do klasických schémat ontologií příliš neprosazují. Jednou z možných cest je jejich převod do určité textové representace, která bude dále zpracovávána. Blízká je také téma big data, protože z hlediska sémantického webu a serverů i desktopu a běžných počítačů či tabletů a telefonů jde o enormní množství dat s nepříliš jasnou strukturou, které je třeba pro dobrou funkci technologie zpracovat. Mimořádně důležitý bude také rozvoj umělé inteligence, která stojí v pozadí všech vyhodnocujících procesů a dolování dat. Podobných průsečíků by bylo možné nalézt desítky. Sémantické technologie, které si kladou za cíl převod dat na informace a jejich další zpracování, především pak vyhledávání v nich, představují jeden z nejkomplexnějších myslitelných témat současného ICT. To je na jednu stranu mimořádně náročné, ale současně tato skutečnost otvírá dveře pro velké množství dílčích aktivit, které bude možné do celé struktury integrovat. Silné stránky a možnosti Sémantické technologie jsou obecně jedním z nejrychleji se rozvíjejících se oborů informatiky především proto, že se snaží vyřešit pochopení obsahu počítačem. Velká část futuristických či sci-fi konceptů, které počítají s tím, že budou stroje samostatně myslet, musí vyřešit zmíněný problém převodu dat na informace, tedy na něco, čemu lze rozumět, má to kontext a lze z toho odvodit něco dalšího. Podobné postupy tak stojí v popředí toho, čemu laická veřejnost říká umělá inteligence, i když informatik ví, že jde jen o její část. Motivace sémantického webu, tak jak ji naznačil Tim Berners-Lee, je zřejmá – vytvořit takový web, který bude agregovat informace a bude schopen dávat smysluplné odpovědi na otázky, nikoli jen fulltextově prohledávat dokumenty a na základě různých SEO politik řadit výsledky.40 Praktickou funkčnost si lze snadno představit na příkladu otázky, kdy naposledy studoval Petr Dvořák na UP. Systém musí pochopit, co je objektem, co předmětem a vztahem a z RDF struktury v grafu získat patřičné informace. Koncept lze ale rozvíjet dále a to podáváním dalších souvisejících informací – můžeme se dozvědět, co hledaná osoba publikuje, zda vyučuje na UP či někde jinde nebo si nechat zobrazit odkaz na výpis s registru dlužníků a její osobní stránky. Sémantický web by tak měl být schopen pomocí těchto přidaných informací nejen odpovídat na jednoduché otázky, ale také vytvářet takové odpovědi, které umožní uživateli pochopit kontext a širší souvislosti.41 Sémantický web, pokud se podaří jej dobře implementovat, bude umět vyřešit hned několik významných vyhledávacích problémů. Tím prvním je informační smog, tedy stránky, které se dostávají do popředí vyhledávání jen proto, že mají dobré SEO, ale jejich informační hodnota je mizivá nebo reklamně orientované texty s vysokým výskytem daných slov. V ideálním případě má uživatel pro většinu svého informačního chování k dispozici reklamou nezatížený obsah informací a souvislostí, které ji obklopují. Zajímavé jsou přitom nejrůznější grafické koncepty, které slouží pro representaci těchto dat v patřičném kontextu a jejich snadné vyhledávání. Dalším významným problémem, který by bylo možné vyřešit je nízká gramotnost některých osob, které mají problémy s vyhledáváním. Spolupráce přirozeného jazyka a sémantického webu by měla 40 BERNERS-LEE, Tim. Semantic web road map. 41 ČERNÝ, Michal. Sémantický web – jak dál?. 30 vést k tomu, že člověk téměř nepozná rozdíl mezi otázkou, která jej zajímá a tou, kterou dává vyhledávači k zodpovězení. Sémantický web v tomto kontextu může znamenat nejen zásadní změny v informačním chování, ale také v tom, jakým způsobem bude vypadat školství. Zatímco dnes je zřejmé, že by měli učitelé klást především takové otázky, které si studenti „nevygooglí“, budoucnost vzdělávání může být díky schopnosti systémů odpovídat i na relativně náročné otázky velice zajímavá.42 Sémantický desktop má cíle postavené částečně někde jinde. Základní ideou je kooperace aplikací mezi sebou – v ideálním případě budou data z prohlížeče webu, správců souborů, obrázků, poštovních klientů nebo třeba fakturačního systému a databází spolu dokonale propustná – pokud začneme psát e-mail Petru Dvořákovi, měli bychom být systémem zpraveni o tom, že nám například nezaplatil poslední tři faktury, co bylo obsahem poslední schůzky a jaký byl smysl nedávné korespondence s ním atp. V současné době se ontologie různého druhu používají spíše v menším množství aplikací, ale lze v této oblasti očekávat progresivní vývoj. Vývoj v oblasti sémantického desktopu je dnes velice zajímavý nejen ve vývoji ontologií, vyhledávání či prostupnosti dat, ale také z hlediska jejich sdílení. Všechny informace jsou typicky řazeny do jedné databáze, takže není obtížné zajistit její sdílení (nebo její části) mezi více uživateli. Díky tomu tak může mít například každý zaměstnanec dokonalý přehled o tom, jak v dané věci postupoval jeho kolega a snadno ho zastoupí nebo na něj naváže.43 Díky takovému konceptu lze také snadno zajistit prostupnost mezi jednotlivými zařízeními, která mohou mít kopii jednotné databáze v cloudu, a jen ji aktualizovat. Ať již přistoupí ke svému desktopu kdekoli, má k dispozici stále stejný bank informací a prostředí, které je schopné s ním patřičným způsobem pracovat. Slabé stránky a možné problémy Sémantické technologie, i přes svůj nesporný význam a potenciál, mají celou řadu problémů, se kterými není příliš snadné se vypořádat. Klasický model sémantického webu stojí na myšlence, že uživatelé sami budou vyplňovat RDF popisky dat, které zveřejňují. Dnes nalezneme celou řadu (i odborných) textů, které stále nevyplňují nepovinné značky klasického HTML s parametry jako je "description" či "author". To jednak znesnadňuje citaci, ale také snižuje důvěryhodnost i možnost snadné orientace. Existuje však relativně málo lidí, kteří by tyto informace použili, proto je není efektivní vyplňovat.44 RDF je tak pro většinu internetové populace technologií, která nemá potřebnou rentabilitu, lze tak říci, že se nikdy nedostala přes práh užitečnosti (K čemu by byl telefon, kdyby ho mělo deset lidí ve městě?). Situaci navíc komplikuje fakt, že neexistuje žádný jednoznačný způsob, jak správně RDF značky zapisovat tak, aby jim všechny (nebo standardní) vyhledávače sémantického webu porozuměly. Dalším důležitým argumentem proti sémantickému webu může být skutečnost, že XML struktura není to, co uživatel čte. Obvykle o ni nijak nestojí, ale stejně by ji musel přenášet při načítání stránky. 42 SLÍŽEK, David a KOUBSKÝ, Petr. Petr Mára: Dnešní učitel musí žákům klást otázky, které nejde vygooglovat. 43 DECKER, Stefan; FRANK, Martin R. The Networked Semantic Desktop. 44 ČERNÝ, Michal. Sémantický web – jak dál?. 31 Roste objem dat, což může vadit například uživatelům s připojením pomocí mobilních telefonů, ale i dalším. Právě to, že je XML příliš náročný na přenos (nemluvíme o jednom či dvou řádcích, ale například o několika desítkách) je dalším důležitým parametrem, hrajícím v neprospěch celého konceptu. Na tomto místě je třeba zdůraznit, že řada vývojářů raději poruší validitu kódu, aby zajistila rychlejší načítání svých stránek, což jen podtrhuje tlak na hledání alternativního řešení. Chybí motivace k implementaci, neboť vyhledávače sémantického webu jsou zcela minoritní a investice do tvorby takových stránek je tedy ekonomicky neefektivní. Absence stránek bez kvalitních RDF popisků přitom implikuje ekonomickou nerentabilitu ve vývoji vyhledávacích strojů. Dnešní situace je taková, že RDF představuje sice robustní, ale velice málo užívaný koncept a sémantické vyhledávání se snaží jednotlivé stroje obejít jiným způsobem. Například Google umí vytáhnout vybrané kategorie z Wikipedie a nabídnout je jako součást výsledků vyhledávání v rámci svého diagramu znalostí (například pod heslem Václav Havel se zobrazí nejen seznam stránek, ale také krátký medailonek se základními informacemi a fotografií). Facebook nabízí prohledávání sociálních vazeb a dolování dat z nich na základě kategorií, které vyplňují uživatelé na svém profilu atp. Lze tak uzavřít, že klasická představa sémantického webu stojícího na RDF má značné trhliny a není pravděpodobné, že by byl v tomto rámci globálně realizován. Sémantické technologie s sebou přinášejí na jedné straně obrovský potenciál, ale stejně tak rizika. Pokud se začne uživatel spoléhat na výsledky, které jsou mu předkládány ve formě souboru faktů, případně doplněných o kontext, může se objevit řada bezpečnostních i etických problémů.45 Tím prvním je problémem je validita výsledků – jde o jedno z témat, které by mělo být řešeno, ale zřejmě dopadne částečně jako v případě klasického webu. Mírně pozměněná realita může být v takovém případě od pravdy velice špatně poznatelná. Takovou manipulaci mohou provádět v zásadě všichni – od firem dělajících si reklamu, přes nedemokratické režimy a politické strany, až po osoby, které se (přes dobrou vůli) mýlí. Také bezpečnostní rizika v případě sémantického desktopu či různých znalostně orientovaných systémů jsou podstatně vyšší. Lze říci, že řada izolovaných dat, může být v případě zcizení nepříjemná, ale informace mají díky svému vysvětlení a kontextu podstatně vyšší hodnotu a možnost jejich zneužití je netriviální. Není také možné snadno nalézt jednoznačnou odpověď na otázku, jaké informace mají být v konceptu sémantického desktopu zobrazovány – vždy půjde o výběr a jeho konkrétní realizace může mít velký vliv na chování lidí a jejich sociální vazby. Z možných rizik není možné zapomenout na to, že se vývoj může silně roztříštit a fragmentovat, takže jednotlivé aplikace nebudou vzájemně kompatibilní. Netriviální problémy mohou přinášet také různé licence a uzavřené formáty, které propustnost buď ztíží, nebo úplně znemožní.46 Aktuální projekty Sémantický desktop je dnes především presentován síťovým prostředím Nepomuk, které umožňuje správu a tvorbu osobních ontologií na bázi řízení znalostí. Nejedná se o žádnou konkrétní aplikaci, ale pouze o framework, který funkce sémantického desktopu zpřístupňuje. Celý projekt je open-source a 45 ČERNÝ, Michal. Budoucnost vyhledávání: Mezi soukromím, technologií a legislativou. 46 ČERNÝ, Michal. Budoucnost sémantického desktopu. 32 jeho cena byla 17 milionů eur, z toho 11,5 milionů financováno Evropskou unií, ale na vývoji se podílela řada dalších firem, jako například IBM.47 V zásadě existují tři funkční varianty – první je implementace pro grafické prostředí KDE, druhá pracuje v Javě a třetí je poskytována v rámci SaS, jako komerční produkt. Asi nejpoužívanější a silně implementovanou variantou je především verze pro KDE 4, jehož je integrální součástí. Cílem je tedy poskytnout vhodnou infrastrukturu rozšiřující osobní desktop do prostředí, které podporuje jednak správu osobních informací, tak i sdílení a výměnu těchto informací v rámci sociálních i organizačních vztahů. Prakticky hojně užívaná je spolupráce Nepomuku s Akonadi v grafickém linuxovém prostředí KDE, které spravuje PIM (Personal Information Manager) data, tedy adresář, kalendář a e-maily. Vzniká tak jednotné prostředí pro přístup k datům, zcela nezávisle na konkrétních aplikacích. Akonadi spravuje získávání dat a jejich ukládání, snaží se tak nahrazovat proprietární metody jednotlivých aplikací. Data, kterými disponuje Akonadi, jsou uložena v databázi MySQL a jsou poskytována Nepomuku, který s nimi pak může přiměřeným způsobem nakládat. S Nepomuk ale spolupracují desítky dalších aplikací v prostředí KDE, jako je například správce souborů Dolphin, prohlížeč fotografií Gwenview nebo knihovna médií Bangarang.48 Pokud jde o sémantický web, tam je k dispozici řada spíše akademických či experimentálně řešených vyhledávačů, ovšem jen s minimální reálnou aplikovatelností. Zajímavým projektem je WophramAlpha, který umí pracovat s dotazy v přirozeném jazyce a z hlediska uživatele se jeví jako realizace sémantického webu (umí odpovědět na otázku, kdo je Václav Klaus, jaké bylo počasí 17. 11. 1989 nebo třeba porovnat náklady na životní úroveň v New Yorku a Bostonu). Pracuje ovšem se svoji vlastní, uzavřenou databází znalostí, takže jde spíše o expertní systém než o sémantický web v pravém slova smyslu. Na druhou stranu možná ukazuje cestu, jakou se vývoj v této oblasti bude ubírat.49 47 DFKI GmbH - Knowledge Management Department. NEPOMUK - The Social Semantic Desktop - FP6-027705 48 VADINSKÝ, Ondřej. Nepomuk-KDE: Sémantický desktop pro Linux. 49 ČERNÝ, Michal a Gabriela ŠIMKOVÁ. Fascinující možnosti WolframAlpha. 33 Zpracování přirozeného jazyka Zpracování přirozeného jazyka patří mezi oblasti informatiky, kterým se věnuje stále větší pozornost a to již velice dlouho. U nás se první rozsáhlejší výzkumy a pokusy objevují v sedmdesátých letech a jejich rozsah i význam stále roste. Cílem disciplíny je zajistit, aby počítače byly schopny s uživatelem komunikovat pomocí jazyka, kterým běžně člověk mluví. To také vytyčuje základní dílčí disciplíny, které se zde objevují. Jde především o syntézu řeči, rozpoznání řeči, strojový překlad, dolování dat, extrakce a získávání informací, dialogové systémy atp. Dnes již většina mobilních zařízení určitou formou zpracování přirozeného jazyka disponuje, stejně tak běžný textový procesor umožňuje kontrolu pravopisu – od překlepů až po gramatické chyby ve větné vazbě. Mimořádný význam má tato disciplína také pro osoby s určitou formou zdravotního hendikepu. Asi každý zná fyzika Stephena Hawkinga, 50 který pro komunikaci s okolím užívá syntetizátor řeči, nevidomí si mohou nechat napsaný text snadno přečíst atp. Zajímavou oblastí je také sémantický web a desktop, tedy koncepty, které jsou založené na myšlence, že počítače budou rozumět určitým datům a manipulovat s nimi. Díky tomu by byly schopné odpovídat na otázky, vytvářet analýzy dosavadní komunikace s určitou osobou atp. V této oblasti je zřejmé, jak těsně bude souviset právě zpracování přirozeného jazyka a umělá inteligence. V době, kdy se zdá být běžné hlasové ovládání mobilních telefonů již téměř standardem (viz například Apple Siri) se objevují zcela přirozené otázky po tom, jak tyto nástroje dále využívat a kam se může celá oblast posouvat. Ukazuje se, že jde o možná jednu z nejkomplexnějších a nejsložitějších částí informatiky, která má před sebou ještě dlouho cestu. Přesto jednotlivé dílčí poznatky mohou být implementovány do běžného softwaru a intenzivně zvyšovat komfort uživatelů a to bez ohledu na to, zda je či není problém přirozeného jazyka již zvládnutý či nikoli. Právě díky možnostem parciálních aplikací jde o oblast, která by si zasloužila u vývojářů co možná největší pozornost. Stephen Hawking je jedním z nejslavnějších lidí, kteří používají pro komunikaci se světem sintetizátor řeči.51 50 Stephen Hawking. Wikipedia. 51 Speech synthesis. Wikipedia. 34 Soudobá technická praxe Popisovat souborným způsobem technickou či technologickou praxi v oblasti zpracování přirozeného jazyka (Natural language processing, též počítačová lingvistika a computational linguistics), je v zásadě téměř nemožné, protože jde o oblast, která je mimořádným způsobem rozvětvená a složitá. Proto se po všeobecném úvodu pokusíme ukázat soudobý stav a možnosti v jednotlivých tradičních oblastech. Dynamismus celému odvětví přitom dávají relativně snadné aplikace do softwarové praxe s případnou možností provázanosti jednotlivých dílčích úspěchů a hotových řešení do překvapivého celku. Přirozený jazyk je fenomén, který si zaslouží pozornost hned z několika důvodů. Předně je nástrojem lidské komunikace, ale také jsou v něm uchovávány téměř všechny dokumenty, alespoň co se týče jejich významu. Jazykové chování představuje jeden z fundamentů lidského chování a myšlení. Řeč je rámec našeho myšlení. To vše dělá z přirozeného jazyka zcela přirozenou oblast zájmu řady dalších disciplín, se kterými musí být informatika v těsném kontaktu:  Lingvistika zkoumá základní strukturu a vlastnosti jazyka. V moderním podání se může opřít o Chomského třídy jazyků a jejich formální popis pomocí automatů, gramatik či regulárních výrazů.  Psychologie se věnuje především procesům jazykové produkce, vztahu mezi emocemi a jazykovými prostředky, tomu jak lidé poznávají a analyzují, na úrovni poznání, výroky v přirozeném jazyce atp.  Filosofie jazyka se věnuje problematice vztahu myšlení člověka a jeho možností v kontextu jazyka. Mezi základní otázky, které si klade, je problém, zda je možné myslet beze slov, co jsou primitivní pojmy v jazyce, jak je člověk poznává, jakým způsobem je vůbec v lidské mysli utvářen jazyk.  Logika, zvláště ta moderní, umožňuje matematicky popsat vztahy mezi jednotlivými výroky, odvozování či vyvracení určitých formulí atp. Logické programování, které je formalizovanou manipulací s logickými formulemi je základem pro umělou inteligenci, znalostní systémy i zpracování přirozeného jazyka.  Samozřejmostí je pak integrace s dalšími počítačovými vědami, jako je studium umělé inteligence, zpracování signálů atp. Ač je problematika NLP v řadě věcí specifická, je stále součástí informatiky a zcela přirozeně z ní čerpá.52 Z hlediska problematiky zpracování přirozeného jazyka je zajímavé, že jde o jednu z oblastí, která se vyznačuje v informatice mimořádně zajímavými programovacími prostředky. Velkou roli zde hraje především programování logické (jazyky jako je Gödel či Prolog53 ), což je velice podobné, jako v oblasti umělé inteligence, ale své uplatnění zde naleznou také jazyky funkcionální. Jde tedy o oblast z hlediska programátorského snad nejvíce zmatematizovanou. Díky dlouhé tradici, která je do velké míry spojená s univerzitními projekty je sice možné stavět na známých otevřených kódech a již publikovaných výsledcích, často ale v programovacích jazycích, které nejsou pro běžné užití úplně vhodné. 52 PALA, Karel. Počítačové zpracování přirozeného jazyka. 53 KLAWONN, F. Prolog extensions to many-valued logics. 35 Zajímavým konceptem je pak budování umělých jazyků, které by umožnily nahradit jazyk přirozený, třeba i více méně formálním přepisem. Jedním z příkladů je Basic English,54 tedy pokus o jednoduchou angličtinu s omezeným množstvím slov a gramatických forem. Takto vytvořené umělé jazyky se mohou podobat přirozeným a proces zpracování mimořádným způsobem usnadňují (například syntéza řeči je zde téměř triviální). Nyní se již můžeme podívat na současný stav a způsoby řešení jednotlivých dílčích úkolů či oblastí ve zpracování přirozeného jazyka. Syntéza řeči (text-to-speech) je jedním z velice populárních úkolů. První pokusy o převod textu na hlasový signál se objevuje v aplikacích či operačních systémech, již od osmdesátých let. Přes původní optimismus je ale zatím univerzální řešení v nedohlednu. Předně se budují jen pro konkrétní jazyky, což je náročné a omezující. Kvalitní syntetizátory jsou tak v zásadě jen pro angličtinu. Druhým problémem je neschopnost stroje porozumět textu, takže do něj nezanáší žádnou vlastní interpretaci či emoce. Současné pokusy o řešení, pomocí slovníkových či náhodných metod, jsou zatím spíše prenatálního charakteru. Pokud jde o technické řešení, tak se využívá databáze s nahranými úseky slov (fony, difóny) či celými slovy. Pokud jsou ukládány jen části slov, je syntéza rychlá a slovníky nejsou příliš velké. V případě celých lexikálních jednotek je třeba mít velké databáze a nějak se vypořádat s časováním či skloňováním, což je v jazycích jako je čeština či němčina relativně náročné. Pro umělé jazyky, jak je třeba Basic English se ale mohou velice dobře celá slova hodit. Stejně tak se s nimi řeší pojmy s odlišnou výslovností od ostatních atp. Nejčastěji se tedy užívá hybridní model, který čerpá z výhod obou řešení. Rozpoznávání řeči (speech recognition) má právě opačný smysl než syntéza řeči, totiž převést mluvené slovo do textu. Jde o základní prvek, na kterém jsou postavené diktovací systémy, ale také hlasové ovládání různých zařízení. Z hlediska algoritmického je vždy výhodnější pracovat s textem než se zvukem. Opět platí, že téměř výhradně jsou kvalitní nástroje v angličtině, která je jednak na rozpoznání jednoduchá, ale má také velké množství potenciálních uživatelů. Z hlediska praktické implementace je možné systémy dělit na ty, které jsou na mluvčím závislé, znají ho a mohou se dobře trénovat a na ty univerzální, které ale dosahují podstatně horších výsledků. Nejčastěji se užívají Skryté Markovovy Modelely (HMM). Jde o automaty, které využívají skrytých stavů. Řečový signál může být chápán jako po částech stacionární signál. Řeč je tedy rozdělena na krátké úseky, takže může být aproximována jako stacionární proces. Druhou metodou založenou na slovníkových databázích je DTW (Dynamic Time Warping), která porovnává signál mluvčího s databázovou bankou slov či jejich částí. Strojový překlad je jednou z dalších stále populárnějších oblastí zpracování přirozeného jazyka, který se začal rozvíjet již po druhé světové válce. Cílem je převést text z jednoho jazyka do druhého (např. z angličtiny do češtiny a naopak), což by se v naivním chápání mohlo jevit jako snadný úkol. Jednotlivé přirozené jazyky se od sebe ale značně liší, ať již v šíři významu jednotlivých slov, přítomností pádů, vidů či skloňováním a časováním, takže překlad není vůbec snadný. 54 CATTELL, Raymond B. A shortened “basic English” version (Form C) of the 16 PF Questionnaire. 36 Aktivně se užívají metody matematické statistiky. Možností, jak postupovat, je samozřejmě několik. Dnes se intenzivně kombinují především dvě. První je založena na určení správného významu slova z více možností pomocí jejich překladu v literárních dílech, druhá se snaží zapojit překlady od lidí, kteří dané slovo v podobné konfiguraci pojmů překládají stejným způsobem. Ač jsou překladatelské systémy stále dokonalejší, má strojový překlad k ideálu stále hodně daleko. Mimořádně důležitá je také korektura textu. Pro základní kontrolu se nejčastěji užívají běžné slovníky, doplněné o to, jak se které slovo v různých situacích může měnit pomocí rodů či druhů. Náročnější je zajistit kontrolu gramatické správnosti, která již vyžaduje pokročilejší metody, jako je identifikace podmětu, kontrola pádů či koncovek slov v kontextu věty atp. Dnes se stále více tato disciplína prosazuje také mimo textové procesory do dalších oblastí. Další bohaté aplikace se týkají snahy pochopit data a jejich význam tak, aby s nimi mohl počítač dále efektivně pracovat. Ukazuje se, že původní koncept, kdy uživatel bude vytvářet pomocí RDF jazyka ručně určitou specifikaci toho, jaký je význam sdělení, nefunguje a asi ani nikdy fungovat nebude. Proto je třeba hledat nové cesty, které by stroji umožnily s textem nějak dále pracovat, například pro získávání informací, odpovídání na otázky, provádění výtahů z textu či extrakce informací. Tyto mechanismy stojí mimo jiné za SEO, respektive za způsobem, jak jednotlivé vyhledávací stroje řadí a analyzují obsah dokumentů. Nejčastěji se používá analýza opakujících se pojmů, která současně hodnotí to, na jak významných místech je slov užíváno (nadpisy, poznámky pod čarou, odkazy, …), samozřejmě v kombinaci s dalšími algoritmickými nástroji. Mimořádně důležité je pak již několikrát zmiňované spojení umělé inteligence či dialogových systémů a NLP. Umělá inteligence umožňuje analyzovat obsah a zajišťuje odezvu počítače na jednotlivé aktivity uživatele či jiného zdroje. Dialogové systémy jsou pak klíčové z hlediska kontroly či analýzy rozhovorů, mohou zajistit efektivnější komunikaci nebo třeba odhalovat teroristy či podvody. Silné stránky a možnosti Jak již bylo řečeno, problematika zpracování přirozeného jazyka je jedna z marketingově, vědecky i uživatelsky nejpřitažlivějších částí soudobé informatiky vůbec. Jednou z domén téměř všech sci-fi knih a filmů je hlasové ovládání počítače, jeho schopnost porozumět výrazům a textům, efektivně dolovat znalosti a rozhodovat se podle nich. Například strojový překlad v kombinaci s extrahováním textu hrál důležitou roli během studia signálů a textů během studené války. V tomto kontextu je možné říci, že jistě půjde o oblast, která se bude velice rychle a dynamicky vyvíjet, ale současně bude potřebovat stále větší podporu spojených disciplín. Jde především o počítačové zpracování emocí. To je třeba jednak pro kvalitně provedenou syntézu řeči, která má znít co možná nejpřirozeněji, ale mnohem podstatnější je pro rozpoznávání řeči. Člověk v různých emocionálních stavech mění tempo řeči, jeho intenzitu i modulárnost, což ztěžuje jeho dobré pochopení. Pokud se podaří rychle a dobře měřit emoce (pomocí teploty kůže a jejího galvanického odporu, tepu a dalších fyzikálních parametrů) může se celé odvětví rychle měnit. Emoce mohou posloužit také pro identifikaci sémantického významu slov, dvojsmyslů či ironie.55 Dalším důležitým zdrojem inovací jsou pokroky v umělé inteligenci, která do velké míry může mít na vstupu i výstupu své činnosti systém přirozeného zpracování umělého jazyka, ale je to právě ona, 55 Podrobněji v následující kapitole. 37 která mu bude propůjčovat stále větší možnosti. Například v oblasti postupně se rozvíjejícího sémantického desktopu. Mimořádně důležité jsou slovníky či korpusy, které slouží k identifikaci jednotlivých prvků v jazyce. Měly obsahovat nejen velké množství textů (optimálně jak zvukového tak také textového charakteru), ale také z hlediska obsahového by měly být co nejbohatší. Ke každému pojmu je třeba vybudovat celou řadu pomocných značek, symbolů a informací, které umožní s nimi co možná nejlépe pracovat. Kdybychom zafixovali vývoj všech nových technologií, tak jen rozrůstáním korpusů se bude kvalita NLP neustále zvyšovat. Velké naděje je možné vkládat do stále se zlepšujících databázových systémů, které představují jeden ze základních prvků, omezujících aktivní praktické užívání. Každá změna na úrovni rychlosti či možnosti databáze se hned odráží na celkovém výkonu většiny reálných aplikací. Ať již je to pozvolný rozvoj MariaDB,56 která se snaží nahradit hojně užívané, ale již málo vyvíjené MySQL nebo třeba NoSQL databáze, které jsou v celé řadě případů efektivnější a lepší. V oblasti syntézy řeči je pak třeba vidět především možnosti postupného se rozšiřování na další jazyky, než je angličtina, respektive jejich zvyšování kvality. To se může uplatnit v ovládání a komunikaci s nejrůznějšími zařízeními, jako jsou počítače, mobilní telefony či inteligentní prvky na úřadech. Rozpoznání řeči má také celou řadu aplikací. Dnes se již prosazuje možnost automatické tvorby titulků k přednáškám či filmům a videoklipům, což je z hlediska jejich uživatelské přívětivosti, ale také třeba obsahového dalšího zpracování mimořádně užitečné.57 Samozřejmě zde můžeme hovořit také o významu pro ovládání zařízení, nebo snížení nároků na nejrůznější zapisovatele a podobné pracovníky. Pro velkou část profesí mohou existovat kvalitní specializované slovníky, které umožní mnohem větší efektivitu práce soudů či lékařů. Strojový překlad je další oblast s obrovským ekonomickým potenciálem. Stačí si jen představit, že česky psaný web o určité technologii nebude přístupný trhu s tisíci potenciálními česky čtoucími uživateli, ale všem. Strojový překlad může mít zásadní dopad na internetový marketing, média či globalizaci řady služeb a produktů. Zajímavou oblastí jsou pak nástroje pro generování přirozeného jazyka z určitých, jasně daných scén. Postupně se objevuje software, který si bez potíží poradí s textovou reportáží z hokejového zápasu a pokud se vylepší syntéza řeči a zpracování emocí, můžeme se dočkat zajímavé revoluce také rozhlasové či televizní. Určit kdo komu dal jakou přihrávku, kolik hokejista nabruslil, kolikráte vystřelil a zajímavosti z jeho minulosti může stroj zvládat mnohem lépe a přesněji než člověk. Slabé stránky a možné problémy Z výše uvedeného by se možná mohlo zdát, že oblasti NLP neexistují žádné problémy a že budoucnost je jasně daná a růžová. Historická zkušenost nás ale před takovým optimismem musí varovat. 7. ledna roku 1954 představila firma IBM první strojový překladač z ruštiny do angličtiny, který obsahoval jen 250 slov a dokázal přeložit jen 49 předem vybraných vět. Přesto tento pokus 56 KNOWLES, Seymour, et al. A natural language database interface for sql-tutor. 57 Aktuální výsledky výzkumu ZČU v Plzni v oblasti podtitulkování pořadů pro neslyšící. 38 vzbuzoval úžas a velká část odborné obce očekávala, že dokonalý univerzální strojový překladač je již jen otázkou času. Dnešní skutečnost je taková, že solidní strojový překlad umíme jen mezi morfologicky velice podobnými jazyky. Podobně je na tom také syntéza řeči, která se začala objevovat v operačních systémech pře asi třemi desítkami let. Také se mělo za to, že mírně roztrhanou a „robotickou“ řeč stačí jen lehce upravit a doladit a nikdo nepozná její hlas od skutečného mluvčího. Opět je situace o mnoho složitější a kvalitně znějící syntetizátory jsou obvykle spojeny se silným slovníkem celých slov. Dějiny tedy ukazují, že pokroky se v oblasti zpracování přirozeného jazyka sice dějí, ale mnohem pomaleji, než si obvykle myslíme. Velkou skupinou problémů, které je třeba také uvažovat, jsou ty etické a právní. V oblasti práva je třeba říci, že jednak je nutné velice obezřetně pracovat s osobními údaji, které třeba sémantický desktop umožňuje plně organisovat do databází nebo uvážit legislativní ochranu nových autorských děl, což má nepříjemné konsekvence směrem k efektivnímu strojovému překladu či získávání znalostí a odpovědí na důležité aktuální otázky. Pro NLP potřebujeme mít zpracováno co možná největší množství relativně aktuálního a kvalitního textu, abychom mohli zajistit dobrou komunikaci. Z etických problémů je možné uvést třeba snadnou možnost manipulace s osobou, která se bude na expertní systémy spoléhat. Pro řadu lidí bude stále obtížnější rozhodnout, kdy jednají s osobou a kdy se strojem. Pokud nedokážeme u systému zajistit bezpečnost a neutralitu (může-li nějaká vůbec existovat), je jeho uživatel, který se spoléhá na kvalitu odpovědí a jejich pravdivost, relativně snadno ovlivnitelný. Tato skutečnost může mít fatální důsledky pro demokracii či svobodný přístup k informacím a NLP může být snadno zneužitelné. Další etickým problémem může být ochrana soukromí. Zatímco dnes je stále nemožné, že by někdo mohl provádět globální monitoring veškeré komunikace, analyzoval ji, chápal její smysl a dále ji zpracovával, s kvalitními nástroji toto nemusí být vůbec problematické. Najít možnosti zneužití pro reklamu, manipulaci s veřejným míněním atp. nemusí být nijak obtížné. I když podobné aktivity mohou být na první pohled maskovány například bojem proti dětské pornografii či terorismu. Další velice problematickou oblastí je sémantický web,58 který byl považován za vlajkovou loď celého NLP. Cílem bylo vytvořit takovou podobu webu, kterému budou schopny počítače porozumět, získávat z nich informace a odpovídat na jednotlivé dotazy. To by zásadním způsobem změnilo to, jak se vyhledává na internetu, prodávají služby a řadu dalších věcí. Problém je v tom, že sémantický web, přes velké investice, neexistuje. Nejsou lidé, kteří by byli ochotní jej pomocí RDF budovat a ani poloautomatické nástroje nejsou dost masové a efektivní. Zatímco ještě před pěti či deseti lety o sémantickém webu málokdo pochyboval, dnes v něj již téměř nikdo nevěří. Ač lze říci, že vývoj NLP jde postupně dále, sémantický web je stále více jen okrajovou záležitostí a řada věcí se řeší oklikou, která tyto nástroje simuluje z pohledu uživatele, ale ve skutečnosti má se sémantickou analýzou společného jen málo. Bylo by ale chybou upínat se k jednomu konkrétnímu, i když slibně se rozvíjejícímu konceptu. V neposlední řadě je možné se zmínit o problémech vázanosti jednotlivých postupů na konkrétní jazyk. Díky této nepříjemné vlastnosti není snadné dělat univerzálně funkční nástroje, které by jen 58 Tématice sémantického webu a desktopu se věnujeme podrobněji v samostatné kapitole. 39 přejaly jiný korpus a snadno by fungovaly zcela beze změny. Intenzivní výzkum se tak soustředí (a to jak akademický, tak také komerční) především na angličtinu, což představuje určitý blok omezující potenciální trh. Do českého prostředí se tak aplikací dostává relativně méně, i když třeba akademická aktivita v této oblasti je jinak mimořádně vysoká s dobrými výsledky. Čeština je navíc obecně pro NLP mimořádně obtížný jazyk. Aktuální projekty Jednou z nejznámějších aplikací, které NLP nabízí v oblasti rozpoznání hlasu je titulkování videa na YouTube. Je třeba říci, že angličtina funguje relativně dobře, ale další jazyky jsou podstatně slabší. Přesto mohou dobře posloužit především cizímu jazyku neznalým nebo třeba neslyšícím lidem. 59 V českém prostředí pak v této oblasti lze zmínit především Superlectures,60 která je zaměřená na přednášky a akademické účely. Pokud je přednášející dobře nasnímán (mimo jiné třeba obličej), lze jeho řeč rozpoznat a převést na titulky, které se automaticky vkládají k videu. Jde o velice perspektivní technologii, kterou rozhodně není možné opomenout. V oblasti mobilních zařízení patří mezi nejznámější hlasové ovládání telefonu iPhone pomocí hlasového asistenta Siri (obdobnou technologií disponuje také Android), který umožňuje pomocí hlasu snadno používat velkou část funkcí telefonu, vyhledávat na internetu atp. Jednodušší syntetizéry řeči lze najít jako doplňky operačních systémů, webových prohlížečů atp. Velice důležité jsou také jako součást asistivních technologií. Obecně je možné říci, že spojení rozpoznání jazyka a jeho syntéza je dnes hojně využívána také u telefonních automatů nejrůznějších linek, kde lze předpokládat omezené množství dotazů a problémů. Software dokáže na základě „rozhovoru“ identifikovat potřeby volajícího a buď jej zcela uspokojit, nebo přesměrovat na přesně daného lidského experta včetně všech potřebných informací. Zřejmě nejdále se dostal strojový v překlad u Google Translatoru, který umožňuje online přeložit web či zadaný text a kombinuje jej také s jednoduchou syntézou řeči. Přesto lze říci, že tento překlad obsahuje velké množství chyb, působí uměle a nepřirozeně. Zajímavým projektem je také sémantický desktop v projektu Nepomuk,61 který se snaží vytvořit koncept počítače, který bude rozumět datům a umět přenášet informace mezi jednotlivými nástroji. Mimo řady užitečných funkcí je na něm dobře vidět soubor většiny problémů neduhů NLP, stejně jako to, že často je efektivnější informaticky čisté a teoreticky kvalitní řešení nějak parciálně obejít. 59 Youtube. Automatic captions. 60 Superlectures. Konference/přednášky. 61 SemanticDesktop.org: OSCAF/NEPOMUK Ontologies. 40 Počítačové zpracování emocí Počítačové zpracování emocí (Affective computing) patří nepochybně mezi jednu z nejzajímavějších částí informatiky, která má na jednu stranu relativně dlouhou tradici, ale současně zatím nepřináší očekávané výsledky. Navíc je spojená s mimořádně obsáhlým teoretickým aparátem, což otevírá možnosti především vývojářům, kteří jsou odborně zdatní i v matematice a teoretické informatice. Cílem počítačového zpracování emocí je vývoj softwaru či jeho kombinace s hardwarem, který by uměl rozpoznat, interpretovat či simulovat lidské emoce. Důvodů, proč se věnovat této oblasti, je celá řada. Nejvíce se hovoří o zlepšení komunikace počítače a člověka (HCI), růstu efektivity pracovního a vzdělávacího procesu, lepší podpory inteligentních domácností, medicínském využití v psychologii, psychiatrii atp. Jde o oblast silně interdisciplinární, která vychází z kognitivních věd – informatiky, psychologie, fyziologie, fyziky, lingvistiky či biochemie. Je přitom třeba zdůraznit, že emoce hrají v lidském životě ústřední roli. Zatímco Descartes se je snažil označit jako iracionální a ve své podstatě nechtěné, dnes víme, že jsou součástí chování i rozhodování stejně, jako racionální analýza.62 Komunikovat s člověkem, který nejen neprojevuje své emoce, ale také vůbec nechápe emoce druhých, je mimořádně nepříjemné a složité. Z tohoto hlediska lze oblast počítačového zpracování emocí označit za jednu z nejdůležitějších v informatice vůbec. Na rozdíl od člověka mohou mít počítače mnohem širší škálu nástrojů, kterými jsou emoce detekovatelné – nemusí mít jen analýzu hlasu a výrazu člověka, ale také disponují senzory, které umožňují principiálně zjišťovat mnohem větší množství dat, která pro analýzu emocí lze použít. Výsledky jsou ale zatím spíše neuspokojivé. 62 ŠVANCARA, Josef. Emoce, motivace, volní procesy. 41 Jedno z možných základních dělení emocí.63 Současná technická praxe Prvním důležitým tématem, se kterým je třeba se v oblasti Affective computing vypořádat, je detekce či měření emocí či emocionálního stavu člověka. Na tomto místě nebudeme analyzovat co vlastně emoce je či není, ale budeme ji chápat jako psychosomatický projev. Předpokládáme, že emoce se projevují navenek, což je ostatně jediná cesta, jak je zachytit (pomineme-li sci-fi scénáře o analýze elektromagnetických vln v mozku). Existuje několik základních možností, jak emoce měřit. Nejjednodušším rozdělením je pozorování a aktivní měření pomocí určitých senzorů. Pozorování je relativně jednoduché, co se požadavků na hardware týče, neboť předpokládá jen existenci mikrofonu či kamery, což jsou komponenty, kterými všechny moderní telefony disponují a má je i většina počítačů. Naopak u senzorických měření je třeba počítat s vývojem také speciálních zařízení, která by měřila určité tělesné projevy. Jednou z možných cest je analýza řeči. Například při strachu, hněvu či radosti mluvíme rychleji a hlasitěji, avšak při nudě, smutku či únavě je mluva pomalejší a méně zřetelná. Pokud máme systém, který pracuje s jedním člověkem relativně dlouhou dobu, tak lze pomocí Fourierovy analýzy tyto změny identifikovat a provádět základní rozčlenění dle nálad. Probléme je, že radost a hněv se může projevovat relativně velice podobně, ale na základě takto hrubé analýzy je mezi nimi těžké přesně rozlišit.64 Běžně se neměří jen rychlost a hlasitost, ale také průměrná výška hlasu, rozsah výšek, kvalita, artikulace či změna výšky. Kombinace všech těchto parametrů by měla být pro základní emoce dostatečná, ale vždy záleží také na dalších determinantech, jak je osobnostní profil mluvčího, zda hovoří v rodné či cizí řeči nebo třeba zda není pod vlivem nějaké návykové látky či alkoholu. Roli může hrát také ale například přízvuk, nachlazení, bolest zubů a řada dalších vlivů. U analýzy hlasu existují samozřejmě také další jemnější mechanismy, které se snaží emoce analyzovat, ale s tím, jak jsou více subtilní, klesá i jejich přesnost a spolehlivost. Zajímavou kategorií hlasové analýzy je identifikace ironií, nadsázek nebo prosté zjištění, která věta je oznamovací a která tázací. To jsou důležité problémy, které je třeba řešit a mají zásadní dopad například na zpracování přirozeného jazyka nebo dolování dat. Věta „Dnes ti to opravdu sluší“ má, v závislosti na intonaci, dva protichůdné významy, které je nutné odlišit. Neméně významným problémem je kumulace emocí, jako je hněv a ironie, které zní zcela jinak než radost a ironie. Druhou metodou pro práci s emocemi je analýza obličeje a mimiky, která je u většiny národů vnímána jako běžná součást komunikačního procesu. Zachycení a rozpoznání výrazů obličeje může být realizováno nejrůznějšími metodami. Zřejmě nejjednodušší je optické snímání a sledování s překryvem v určitých korpusech výrazů. Paul Ekman dělí výrazy obličeje podle šesti základních emocí: radost, hněv, údiv, znechucení, strach a smutek. Všechny další emoce jsou součtem těchto základních v nějaké umenšené míře (například 20 % radosti + 60 % údivu + 20 % strachu atp.).65 63 Emotion. Wikipedia. 64 JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí. 65 EKMAN, Paul. Basic emotions. Handbook of cognition and emotion. 42 Velice často se používají kombinace obou výše uvedených metod, které umožňují přesněji rozhodnout, o jaký druh emoce se jedná – každá nezávisle definuje vlastní množinu možností a hledá se jejich vzájemný průnik. Výrazy ve tváři mohou být ale silně závislé na kulturním kontextu nebo na zdravotním stavu komunikujícího, což je další důležitý prvek, který je třeba v této oblasti sledovat. Zajímavou záležitostí je práce s gesty a řečí těla obecně. Pomocí gest lze (opět pomocí korpusů a matematické analýzy) identifikovat určité důležité emoce. Tyto techniky se často používají pro sledování osob na letištích nebo v davu, kde lze rozpoznat například teroristu pomocí speciálních pohybových vzorců. Jde tak o důležitý bezpečnostní prvek, který se zatím ale pro běžné komunikační účely příliš nepoužívá. Mimo pouhých observačních metod lze využívat také senzorické sítě a detektory, které se dnes běžně užívají i na nespolehlivých a nechvalně známých detektorech lži. Pokud je člověk nervózní, tak se obvykle potí, což se projevuje na jeho galvanickém odporu kůže, který lze relativně snadno měřit. Galvanický odpor lze měřit pouze dotekem, což nijak nesnižuje komfort uživatele. Z tohoto hlediska jde o relativně užitečnou technologii.66 Z kontaktních metod lze uvést ještě měření tepu a tlaku krve, které se opět mění v závislosti na konkrétním emocionálním stavu jedince. Lze ale analyzovat rychlost a hloubku dechu a další somatické projevy. Obecně platí zásada, že jsou preferovány metody, které nevyžadují práci s gely či jiný nepříjemný kontakt pro uživatele. Problémem u méně obvyklých postupů jsou pak často malé korpusy, což zvyšuje jak časové, tak také finanční nároky na jejich implementaci a snižuje spolehlivost takové metody. Pro praktické zpracování emocí se často používají skryté Markovovy modely, které jsou podrobněji diskutovány v kapitole věnující se problematice zpracování přirozeného jazyka. Mimo samotné detekce a zpracování emocí člověka, který interaguje s počítačem, je druhou důležitou částí této problematiky také modelování emocí pro výstup počítače. Jde o relativně zajímavou část výzkumu, která je užitečná například pro tvorbu animací, kde by nemuseli grafici ručně animovat jednotlivé pohyby na tvářích a gesta, ale jen by rozvíjely či personalizovaly jednotlivé hotové koncepty. Důležitá je tato schopnost pro syntézu řeči. Pokud posloucháme dnešní nástroje, mají většinou konstantní náladu a jejich hlas proto nepůsobí příliš přirozeně ani příjemně. Z tohoto důvodu by bylo žádoucí, aby se práce s emocemi projevila také v této oblasti. Jednou z klíčových technických záležitostí v oblasti zpracování emocí je tvorba korpusů. Bylo by vhodné, aby existovala co možná největší databáze toho, jak vypadají jednotlivé vokální, ale také mimické či somatické projevy jednotlivých emocí, aby je mohl koncový vývojář snadno vzít a implementovat do svých aplikací. Ač dnes již existují korpusy, které mapují výrazy či gesta (ať již formou 2D či 3D obrázků), lze říci, že ke snadno přenositelným databankám je ještě daleko. Návaznost na další technologie Počítačové zpracování emocí není ani v nejmenším izolovanou disciplínou, ale nabízí řadu průsečíků s dalšími obory či technologiemi. První oblastí, která se logicky nabízí, je zpracování přirozeného jazyka. Identifikace emocí je důležitá pro pochopení významu sdělení. Nejde přitom jen o ironii, ale 66 KOPEČEK, Ivan. Počítačové zpracování emocí: Affective computing. 43 existují jazyky – jako například čínština – kde rozdíl mezi slovy je jen v nepatrném přízvuku. Ten se ale může s emočním stavem mluvčího měnit. Jde také o klíčovou technologii, pokud jde o dialogové systémy a syntézu řeči.67 Bez schopnosti poznat, jakým emocionálním naladěním má být text přečten, lze těžko uvažovat o tom, že by pomocí syntézy řeči mohla probíhat výuka nebo tvorba audioknih. V těchto oblastech je přirozenost projevu a jeho emocionální naladění, respektive proměny v závislosti na obsahu, mimořádně důležité. Také u dialogových či expertních systémů lze emoce používat jako jeden z kontrolních mechanismů. Člověk mající strach například nemá úplně přesný úsudek a systém by se měl ve vyhodnocování situace spoléhat na jiná data, než je sdělení člověka. Affective computing hraje klíčovou roli v tom, jak by měla být ovládána zařízení a měnit se jejich grafické rozhraní. Jestliže dnes je tématem responzivní design, stojící na myšlence, že by web či aplikace měla dynamicky měnit svůj vzhled a rozložení, podle toho, na jakém je zařízení provozována, tak v budoucnosti bude probíhat totéž na základě emocionálního stavu uživatele. Osoba plná hněvu bude vyžadovat zcela jinou kalibraci dotekového displeji i velikost oken. Některé funkce či možnosti je naopak dobré před ní co možná nejvíce ukrýt. Také v oblasti internetu věcí lze nalézt celou řadu možných využití. Od analýzy emocí více různými zařízeními, přes analýzu vzorců chování (tablet může poznat špatnou náladu uživatele tím, že si někoho vymaže ze seznamu kontaktů a pustí si svou oblíbenou smuteční píseň, atp.) a tato data pak předávat dál. Není třeba, aby si každé zařízení zvlášť dělalo komplexní analýzu, ale každé může přispět k přesnějšímu poznání emocí a tato data spolu sdílet. Samozřejmostí je pak návaznost na počítačové zpracování hlasu a obrazu, který je pro tyto účely nezbytný, nebo spolupráce s nejrůznějšími elektro obory, které se věnují jak tvorbě příslušných detektorů, tak také zpracováním digitálních signálů. Silné stránky a možnosti Hlavní oblastí, kde se počítačové zpracování emocí bude v nejbližší době prosazovat, je zajištění pohodlnější a lepší komunikace mezi člověkem a počítačem a to hned v několika rovinách. Tou první je správa zařízení a internetu věcí, která budou využívat emoce k lepší péči o své uživatele. Telefon tak například může měnit citlivost displeje či jeho jas a kontrast v závislosti na emocionálním stavu uživatele.68 Možností je ale samozřejmě více – lze si například představit nastavené vzorce chování, které bude chtít mít uživatel k dispozici – pokud se vrací z práce unavený, chce silnější kávu, když je ale horko, tak se udělá ledová. Podobně komplexně lze řešit také třeba výběr hudby či texty, které se budou agregovat do čtečky zpráv. Uživatel by tak měl dostávat komfort, který bude respektovat jeho aktuální pocity, aniž by musel sám aktivně do těchto procesů nějak zasahovat.69 Detekce emocí umožňuje zásadním způsobem zvýšit pracovní výkonnost. Pokud bude počítač analyzovat emocionální stav uživatele, může mu dávat úkoly v takovém pořadí a struktuře, jaká je 67 Srov. KOPEČEK, Ivan. Personality and Emotions - Finite State Modelling by Dialogue Automata. a KOPEČEK, Ivan, Karel PALA a Markéta STRAŇÁKOVÁ-LOPATKOVÁ. Ambiguity Problems in Human-Computer Interaction. 68 BROCKMEIER, Joe. What We Lose in a Post-PC World. 69 ČERNÝ, Michal. Počítačové zpracování emocí. 44 optimální pro jeho konkrétní pracovní nasazení. Pokud je svěží a odpočatý, bude se věnovat kreativní činnosti, při únavě pak dostane například vyřizování korespondence či nařízenou přestávku na sport. Díky vhodnému střídání činností lze s pracovním tempem lidí velice dobře zacházet a nárůst efektivity nemusí být jen v řádu jednotek procent. Podobně lze snadno rozhodnout, že zaměstnanec není v kondici, která by pro jeho práci byla adekvátní a poslat jej domů (nebo ho do práce neposílat vůbec). Tím dochází k lepší optimalizaci zdrojů, v pracovním prostředí se nepohybují lidé, kteří nic nedělají a jen demotivují druhé, šetří se náklady na elektřinu atp. Tyto změny tak mohou být přínosné pro celý pracovní kolektiv, pokud se s nimi bude umět dobře zacházet. Takto pojatý koncept s činnostmi, které jsou řízené emocemi, může znamenat také revoluci v tom, jak probíhá vzdělávací proces. Systém může nejen sám střídat předměty a látku tak, aby se na danou činnost student co nejvíce soustředil a pociťoval minimum negativních emocí (zde by bylo zajímavé zvážit, co by bylo tím optimem, se kterým bychom pracovali), ale také vhodně užívat různé didaktické formy – někdo nemá rád testy, tak jich bude mít ve výuce minimu a znalosti se budou ověřovat řešením problémů či projekty, někdo preferuje prezentace před souvislým textem,… Vzdělání se díky těmto technologiím může stát silně perzonalizované a bude znamenat konečně přechod od 1:N k 1:1 modelu.70 Emoce jsou zajímavý zdrojem dat také pro další systémy či aplikace, které s nimi na první pohled úplně nesouvisí. Lze si tak představit, že výsledky vyhledávání se již nebudou přepočítávány jen podle předchozích zkušeností s vyhledáváním či jinak uloženými daty, ale také reflektovat to, jak se člověk v daný okamžik aktuálně cítí. Další důležitou oblastí jsou nejrůznější bezpečnostní systémy – pomocí detekce emocí lze podle pohybu a teploty identifikovat potenciální útočníky na letištích, zloděje v ulicích nebo třeba studenty, kteří opisují při testech. Spolehlivost těchto zařízení není rozhodně stoprocentní, ale umožňují alespoň částečně rozhodnout, na které osoby se s patřičnými preventivními opatřeními zaměřit především. Velký potenciál má zpracování emocí také v oblasti syntézy řeči. Aby byl text zapamatovatelný a pro posluchače pochopitelný a zajímavý, je třeba, aby se v něm na správných místech vyskytovali příslušné emoce. Počítačové zpracování se nezabývá jen prostou analýzou emocí a jejich detekcí, ale také vlastními modely pro jejich simulování. Jedním z cílů by tak mělo být určení, které skupiny slov jsou spojené s určitou emocí a podle toho upravit umělý hlas. Pokud chceme uvažovat o dialogových systémech, které budou relativně přirozeně komunikovat s člověkem, je nutné hledat cesty pro tento druh analýzy.71 Oblastí využití je ale celá řada – lze si je dobře představit jako podporu pro psychologické poradenství nebo jako součást nejrůznějších preventivních a výchovných programů, stejně jako ve zdravotnické oblasti. 70 BRDIČKA, Bořivoj. Skutečné možnosti využití daty řízeného školství. a BRDIČKA, Bořivoj. Daty řízené školství, politika a technologie. 71 RUBIN, V.; STANTON, J.; LIDDY, E. Discerning emotions in texts. 45 Slabé stránky a možné problémy Počítačové zpracování emocí patří nepochybně mezi nejkontroverznější technologie dneška. Prvním problémem může být otázka ochrany soukromí. V západním kulturním okruhu (a nejen v něm) je vnímáno nepříliš pozitivně, pokud někdo projevuje své emoce přehnaně. Schopnost sebeovládání, kontroly nad tím co děláme nebo odhlédnutí od emocí, patří již od doby Descartese ke ctnostem, které člověka spíše zdobí. Zpracování emocí jde ale přesně opačným směrem, když se je snaží jednoznačně pojmenovat, analyzovat a využívat. Představa, že má zaměstnavatel přehled o emocionálním stavu svých zaměstnanců, může na první pohled vypadat dobře z hlediska efektivity práce a pracovního nasazení, nebo umožnit zajímavé manažerské experimenty, ale současně jde o bezprecedentní zásah do soukromí. Můžeme hovořit o jakémsi novém otroctví, kde nejsou lidé ovládání pomocí explicitní moci, ale rafinovaným souborem motivátorů, které reflektují jejich emocionální stav. Ať již člověk chce nebo ne, před vhodně cílenými emocionálními manipulacemi se lze bránit podstatně obtížněji, než v případě racionálních argumentů nebo nějakých plošných citových výlevů. Právě argument s novodobou totalitou či otroctvím patří mezi nejdůležitější. Takový zásah do soukromí nebo sledování občanů v nedemokratických státech patří k problémům, které budou zavádění počítačového zpracování emocí provázet. Není velkým problémem podle pohybu a dalších projevů identifikovat, kdo je disident či jinověrec, který přichází do budovy dělat nějakou „nedovolenou“ činnost. Jde o zcela bezprecedentní zásah do soukromí, což celá řada osob může nést velice těžce.72 Také pracovní výkonost nemusí být zcela bez potíží – o nárůstu krátkodobého výkonu zřejmě bude pochybovat málo kdo, avšak dlouhodobá data a dopady neznáme. Je možné, že negativním jevem bude naprosté vyčerpání z práce, deprese a další projevy, které můžeme sledovat u profesí, které jsou typické pro moderní informační společnost. Jiným zajímavým problémem může být přecenění možností, které má počítačové zpracování emocí k dispozici. Příkladem může být nevhodné použití detektoru lži. Není velkým problémem pro trénovaného člověka či patologického člověka (psychopata či sociopata) podobný přístroj úmyslně obelstít a naopak nervózní člověk může být usvědčen z trestného činu, který nikdy nespáchal. Z hlediska funkčnosti jde sice o zajímavý experiment a první pokus o zpracování emocí, ale není možné jej vnímat ani jako důkaz, ani jako podpůrný argument k čemukoliv. Z teoretického pohledu je pak velkým problémem klasifikace emocí. Zcela jiný systém nabízí Watson (strach, láska, zlost), Weiner a Graham (štěstí a smutek) nebo Izard (Hněv, opovržení, znechucení, úzkost, strach, vina, zájem, radost, hanba, překvapení). Najít optimum není vůbec snadné a pro každou metodu je výhodné jiné členění. Vzájemná nekompatibilita nejen snižuje možnost tvorby přenositelných korpusů, ale také spolupráci aplikací či senzorů.73 Nejde přitom jen o klasifikaci emocí, ale také o to, že jsou pokaždé jinak skládány a doplňovány. Problémem také je, že pokud k někomu současně cítíme lásku a nenávist, obvykle nejde o časovou současnost, ale o aperiodické střídání těchto pocitů. To vše je třeba zvážit při návrhu systémů, které budou s emocemi pracovat. 72 ČERNÝ, Michal. Vybraná témata ze sociální informatiky II. 73 JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí. 46 Pokud jde o senzorické měření je třeba říci, že se neustále naráží na různé problémy, které souvisí se samotným procesem – buď nejsou čipy dostatečně miniaturizované, nebo je pro jejich použití třeba nějaké větší zapojení uživatele (natření místa gelem, připojení měřícího přístroje,…), což je pro řadu lidí nepříjemné, nepohodlné a tato skutečnost měření bude omezovat. Jednou z nejpřesnějších metod je například měření hladiny hormonů v krvi, což by vyžadovalo implantaci měřícího zařízení přímo do žíly nebo pravidelný odběr krve. V neposlední řadě je nutné uvážit nároky na výpočetní výkon. Velká část aplikací vyžaduje okamžitou reakci a detekovat a vhodně zpracovat emoce nemusí být vůbec jednoduché z hlediska výpočetního výkonu. Také náročnost na zpracování modelů po odborné stránce není vůbec snadné, neboť vyžaduje silnou interdisciplinární spolupráci mezi matematiky, psychology, teoretickými informatiky, odborníky na elektroniku či aplikovanými informatiky. Aktuální projekty Mimořádně zajímavou skupinou aktuálních projektů jsou ty, které se věnují psychologickým a psychiatrickým problémům. Důležité jsou výzkumy osob s autistickými poruchami, pro které jsou určené nejen pokročilé detekční systémy, které jim pomáhají uvědomovat si, co vlastně cítí, ale slouží také ošetřujícím osobám tak, aby pacientům umožnili komunikaci s minimem stresových či jinak problematických situací. Jde o jednu z nejdůležitějších oblastí a aktuálních projektů je v této oblasti skutečně mnoho. Podobně mají fungovat systémy pro predikci záchvatů epilepsie, které umožní nemocným se na jeho příchod připravit a minimalizovat tak nebezpečí, která jsou s ním spojeny.74 Dnes jsou první systémy pro affective computing implementovány také do robotů a agentů, kteří disponují umělou inteligencí. Díky tomu jsou mnohem efektivnější, mají přesnější reakce a je mnohem obtížnější je rozlišit od obyčejných lidí. V horším případě jsou součástí projektů, které pracují se socialboty, v lepším je lze použít pro modelování nejrůznějších sociologických modelů, které musí s existencí emocí počítat. Populární jsou projekty, které se snaží rozpoznávat emoce v řeči či gestech. Díky různým frameworkům jde již o relativně nenáročné projekty na úrovni studentských prací. Pracuje se také nejrůznějších projektech pro sebehodnocení a analýzu vlastních emocí, vzorců chování či potřeb.75 Populární jsou detektory emocí v hlasových automatech, kde umožňují jednak upozornit operátora na emocionální rozložení volajícího, ale také zlepšují navigaci a nabídku případných služeb. Používají se také na letištích pro identifikaci teroristů, ale stejně tak mohou posloužit pro cílenou marketingovou kampaň. 74 Zajímavým zdrojem může být seznam projektů z počítačového zpracování emocí na MIT; MIT. Affective Computing. 75 WOLF, Gary. The data-driven life. 47 Síťové trendy a projekty Počítačové sítě v nejrůznějších podobách sehráli klíčovou roli nejen v době informační revoluce, ale také dnes. Internet, ale také firemní sítě či mobilní sítě zažívají masivní rozvoj a stále intenzivněji proměňují celý obor ICT. Představují také platformu s ekonomicky největším potenciálem, který začíná u obyčejných e-shopů a končí u pokročilých aplikací, rozšířené reality nebo zprávy zařízení. Počítačovou síť přitom není možné vidět jen jako prostou infrastrukturu, i když i to je aspekt, který je pro rozvoj informační společnosti i technologií velice důležitý. Síť umožňuje hromadné získávání dat, zprostředkovává komunikaci mezi uzly a dokonce ji lze použít pro modelování mozkových struktur, pro stavbu biologických či učících se algoritmů atp. Následující část knihy bude zaměřená právě na sítě. Prvním tématem je IPv6, což je klíčový protokol síťové vrstvy ISO-OSI modelu a který představuje důležitou komponentu pro budování moderních sítí libovolného druhu. Podpora mobility či bezpečnosti, možnost snadné adresace a řada dalších novinek bude vytvářet platformu, ze které budou čerpat (téměř) všechny aplikace. Internet věcí, rozšířená realita i complex event procesing využívají internet a senzorické sítě k tomu, aby dokázali nabídnout uživateli větší množství informací, než bylo doposud běžné. Jednotlivá zařízení připojená do sítí budou stále méně ovládaná s lidmi a půjde o zařízení a senzory nejrůznějšího charakteru. Také BYOD – tedy nošení vlastního zařízení do práce je spojeno s metodami, které přímo souvisí se zprávou, zabezpečení a organisací sítí, i když ze zcela jiného hlediska. 48 IPv6 Potřeba směrování a adresace je něčím, co je třeba v každém návrhu síťových protokolů mít velice pečlivě ošetřeno. Původní protokol síťové vrstvy IPv4 byl navržen v situaci, která byla zcela jiná, než ta dnešní. O mobilních zařízeních si člověk mohl nechat jen zdát a síť ARPANET tvořily (téměř) výhradně počítače akademického a univerzitního sektoru. Požadavky na bezpečnost či množství adres byly tedy minimální. Počátkem 90. let se začal objevovat problém s tím, jak zajistit dostatečné množství adres pro zařízení, jejichž počet se rychle zvyšoval. Podle tehdejších analýz měly čtyřkové adresy dojít asi do desíti let, což představilo zcela novou výzvu pro tvůrce protokolu pod taktovkou IETF. IP je v zásadě jediný, který funguje v jedné (či dvou verzích) na celém internetu, což otvírá cestu k zásadním inovacím, který by umožnily rozvoj sítě ve zcela novém a širším kontextu. Myšlenka, že bude jen navýšen adresní prostor, byla tak rychle zamítnuta a místo se objevila celá řada dalších požadavků, které by měl nový protokol splňovat a zajišťovat. Především šlo o:  větší adresní prostor, který pokud možno nikdy nedojde;  tři druhy adres: individuální (unicast), skupinové (multicast) a výběrové (anycast);  jednotné adresní schéma pro Internet i vnitřní sítě;  bezpečnost a šifrování;  podpora pro garantovanou kvalitu služeb (QoS);  podpora vysokorychlostního směrování;  automatická konfigurace;  podpora mobility. Dílčích cílů by se ale dalo najít ještě více. Již v roce 1995 se objevila první specifikace nového protokolu IPv6, ale postupně se pracovalo na implementaci výše uvedených požadavků. Například mobilita a její podpora stále není vyřešeným problémem. Mimo to se objevily technologie, jako je NAT,76 které dokázaly (za cenu snížené přímočarosti a rychlosti) zpomalit nárůst počtu požadavků na IPv4 adresy, takže v zásadě dochází až od roku 2012.77 IPv6 je tedy protokolem, který má ambice zásadním způsobem změnit fungování internetu směrem k lepší práci s mobilními zařízeními, směrování, konfiguraci nebo bezpečnosti na úrovni síťové vrstvy ISO OSI modelu.78 Přesto je dnes protokol šestkové řady z hlediska uživatelských a koncových zařízení silně minoritní záležitostí. 76 TSIRTSIS, George. Network address translation-protocol translation (NAT-PT) 77 FILIP, Ondřej. Tak jsme na suchu! 78 VAŇKOVÁ , Jana , ČERNÝ, Michal. Úvod do počítačových sítí. 49 Hlavička paketu v IPv6.79 Soudobá technická praxe První zcela zásadní inovací, kterou přináší nové verze Internet Protocol je rozsah adres. Zatímco IPv4 má k dispozici pouze asi 4x109 adres, její šestková kolegyně jich nabízí přibližně 3x1038 . Na první pohled by mohlo jít o množství, které je zbytečně velké či přestřelené, tedy že přinejmenším hlavičky paketů budou delší než by bylo nutné, což má konsekvence s nároky na směrovače a směrovací tabulky. Důvodů pro takto vysoké číslo je celá řada. Předně je třeba říci, že aby bylo možné efektivní směrování, nebude rozdělování adres příliš husté, takže počet používaných adres bude o několik řádů nižší. Druhým důvodem je skutečnost, že v IPv6 sítích se počítá s tím, že bude mít jedno zařízení více IP adres, podle toho, v jakých sítích bude aktuálně připojeno. Také to vytváří tlak na dostatečnou zásobu. A v neposlední řadě je třeba říci, že se počítá s narůstajícím počtem zařízení, které budou těmito adresami disponovat – od inteligentních spotřebičů v domácnostech, až třeba po hodinky, automobily nebo oblečení (wardrobe computers).80 IPv6 umožňuje nasazení senzorických sítí, které budou založené na klasickém IP a efektivní směrování v nich bez obav, že by bylo plýtváno adresami. Zatímco doposud se většinou užívali speciální protokoly pro směrování, tento krok může jejich užití velice zefektivnit a zjednodušit. 79 IPv6. Wikipedia. 80 WEAVER, John V. Architecture for Wireless communication and monitoring. 50 Jen takto definované rozšíření adresního prostoru může z hlediska toho, jak fungují počítačové sítě, přinést nemalou revoluci, díky zcela novým možnostem směrování či snadné vzdálené komunikace s konkrétními zařízeními. Významných novinek je ale v IPv6 více. Předně je to podpora bezpečnosti, která byla dříve řešená buď ve vyšších vrstvách IOS-OSI modelu, anebo pomocí nepovinného IPSec, který byl ale nepovinný. IPv6 přichází se dvěma základními bezpečnostními nástroji s tím, že jeden je povinný a zaručuje autentizaci a druhý nepovinný a slouží pro celkové zabezpečení paketu. Prvkem, který je nutný v IPv6 používat, je hlavička AH (Authentication Header), která umožňuje zaručit, že paket, který dostáváte, opravdu pochází od uvedeného odesilatele. Jde tedy o autentizaci – není možné podvrhovat či modifikovat pakety, což je velmi užitečné, ale stále to neznamená bezpečnost v tom smyslu, že komunikace je neveřejná. To zajišťuje až druhý, volitelný prvek, který je hlavička ESP (Encapsulation Security Payload), která slouží pro šifrování odchozího paketu, ochranu integrity, částečnou autentizaci a jako ochrana před případným zopakováním. To v praxi znamená, že data nemohou být odposlouchávána, podvržena ani jinak sledována. Vše funguje tak, že odchozí paket se obalí ještě do ESP, a je tak v bezpečné „obálce“ dopraven až k příjemci. Právě důraz na bezpečnost, která je integrovaná již na síťové vrstvě je vnímán jako jeden z nejdůležitějších kroků od internetu akademického k všelidovému, komerčnímu. Další užitečnou novinkou, která ale není plně specifikována (i když základní idea je jasná)je podpora mobility. V době, kdy vznikalo IPv4, neexistovala potřeba řešit komunikaci s pohybujícím se uzlem, který – tak jak přechází z jedné sítě do druhé – mění svou adresu. Každá stanice má svůj domácí směrovač, který má neměnnou adresu a kterému hlásí svojí aktuální IP adresu. Pokud s mobilním uzlem chce někdo komunikovat, může tak činit přes jeho domácí směrovač, který měnící se adresy zná. Pokud není změna příliš dynamická, umožňuje podpora mobility, aby komunikující uzly znaly své adresy a dorozumívaly se nepřímo, nikoli „oklikou“ přes domovský směrovač. Tato změna umožňuje vývoj komunikačních aplikací či práci s datovými proudy s podporou přímo v IP. V tomto kontextu je velice důležité říci, že IPv6 nabízí podporu kvality služeb, což je opět zajímavá novinka. IPv4 sice určitý pokus v této oblasti mělo, ale nikdy se reálně nezačal používat. Šlo tedy o protokol, který se řídil zásadou best effort81 , což je ve chvíli, kdy potřebujeme pracovat například s přenosem videa v reálném čase (pro komunikaci se přípustné zpoždění pod 0,2 sekundy) problém. V IPv6 tak lze ke každému datagramu přiřadit prioritu a určit druh dat. Směrovače tato data vyhodnocují a umožňují pak prioritní odbavení paketů, které spěchají na úkor těch, které mohou počkat (třeba e-maily). Mimo to nabízí IPv6 ještě možnost efektivního směrování uvnitř určité podsítě a to jasně definovanou cestou (samozřejmě s ošetřením pádu sítě) pomocí MPLS. Také to může přispět k tomu, že se data prioritního charakteru dostanou na místo určení podstatně rychleji než v klasické čistě best effort síti. 81 Tedy zásadou, že „kdo dřív přijde, ten dřív mele.“ 51 S podporou mobility souvisí také další požadavek a tím je podpora automatické rychlé konfigurace (nejlépe plug and play). Pokud má mít podpora mobility význam není možné, aby připojování se k síti trvalo dlouho a byla k tomu potřeba činnost administrátora sítě. Z tohoto důvodu IPv6 nabízí dva základní způsoby, jak se uzel může připojit k síti. První je způsob známý z IPv4 a je nazýván stavová konfigurace a až na drobná vylepšení nepřináší nic nového. Jedná se o konfiguraci prostřednictvím DHCPv6, počítač rozešle dotaz a DHCP server mu v odpovědi sdělí vše, co by o zdejší síti měl vědět. Na základě těchto informací se pak může připojit do sítě. Novinkou je až druhá varianta zvaná bezstavová. Využívá dostatečné délky IPv6 adresy a umožňuje zařízení připojit se do sítě i bez komunikace se směrovačem. Stačí mu k tomu otázky po sousedech, které mu umožní ověřit si unikátnost své adresy (vzniklé z MAC adresy), znalost toho, jak velké pakety je možné posílat a řady dalších věcí. V rámci bezstavové konfigurace si počítač také vytvoří základ své směrovací tabulky, tedy seznam implicitních směrovačů, kterým bude předávat pakety směřující mimo síť. Jedná se tedy o dobrý doplněk (v IPv6 má jít dokonce o dominantní prvek konfigurace uzlu v síti) klasické stavové konfigurace, který je užitečný jak pro snížení zátěže směrovačů, tak také pro podporu mobility.82 Další příjemnou novinkou je zjednodušení hlavičky, která byla u IPv4 skutečně velká a značná část parametrů se vůbec nepoužívala. Fragmentace již vytvořených paketů navíc není možná, takže pomocí MTU musí směrovače zjistit maximální možnou velikost diagramu a podle toho lze pakety dynamicky přizpůsobovat. Existují tak takzvané jumbogramy, jejichž velikost může být až 4 GB. Cílem obou změn je snížení zátěže na směrovačích, které jsou kritickými místy celé sítě. Velká změna se týká také samotného druhu adres, které jsou v síti k dispozici. Ty jsou nyní tří základních druhů. První jsou unicast adresy, které se vztahují ke konkrétnímu rozhraní či zařízení. Zásadní novinkou jsou anycast adresy, které umožňují adresovat (dle rozhodnutí směrovače), některý z množiny vybraných rozhraní. Může jít například o nejméně zatížený server atp. Poslední variantou adres je multicast, který adresuje celou skupinu počítačů. IPv6 samozřejmě přináší celou řadu dalších dílčích změn, které ale již jen vyvstávají ze skutečnosti její existence. Příkladem jsou nové verze směrovacích protokolů, které musí počítat jednak s větší délkou adres, ale také s některými jejich specifiky. Nové požadavky jsou kladeny na směrovače, které musí nejen zpravovat tabulky, ale také kontrolovat zda nejde o paket s hop limit (náhrada za TTL u IPv4) rovným nule, ošetřit zajištění QoS či směrování uvnitř autonomních oblastí pomocí předdefinovaných cest. Jeden z důvodů, proč se nový protokol šíří tak pomalu, jsou právě nároky na tato kritická zařízení pro chod celé sítě. Dále bychom mohli zmínit AAAA záznamy v DNS serverech, které nahrazují A čtvrtinové délky. V současné době je IPv6 již zcela použitelný (a dokonce používaný) protokol, který si získává postupně stále větší oblibu. Řeší řadu problémů, které se musely ošetřovat na vyšších vrstvách, což vedlo k tomu, že nešlo o homogenní a transparentní řešení. Přítomnost těchto funkcionalit na síťové vrstvě 82 HUSTON, Geoff a George MICHAELSON. Counting DNSSEC. 52 je tak jednoznačným přínosem. To ale neznamená, že by celý protokol byl jako celek již dokonale popsán. Stále se řeší drobnosti ohledně podpory mobility a jednotlivých technických detailů, což snižuje možnosti efektivnější a jednodušší implementace celého systému. Na úrovni operační systémů je IPv6 podporováno například v BSD (jako jeden z prvních operačních systémů díky projektu KAME). U Windows se objevovaly pokusy již od Windows NT, ale první funkční oficiální podpora byla až u Service Pack 1 pro Windows XP, u serverových edic Windows Server 2003. Kvalitní podporu nalezneme ale až u Windows Vista. U Linuxu se poprvé objevila jako experiemntální funkce v jádře s označením 2.1.8 v roce 1998, finální a oficiální podpora je ale až od roku 2005 v jádře 2.6.12.83 Silné stránky a možnosti V současné době se prostřednictvím IPv6 provozu realizuje asi 60 % síťového provozu a je podporován všemi velkými hráči na internetovém trhu jako je Facebook či Google. Z tohoto úhlu pohledu lze říci, že zatímco přenos velkých dat, směrování mezi doménami a řada dalších náročnějších aplikací již v IPv6 funguje, uživatelé si k němu cestu zatím příliš nenašli a vývojáři mají jen omezenou skupinu lidí, kterým by mohli dodávat služby a aplikace, které si šestkovou verzí poradí a bude pro ně přínosná.84 Před pracovní skupinou IPv6 IETF tak stojí zcela zásadní úkol v podobě dotažení chybějících RFC dokumentů, které by specifikovaly zbývající nepříliš dobře popsanou oblast, především pak podporu mobility. Až v tom okamžiku lze očekávat masivnější rozšíření uživatelských nástrojů, které by vyžadovaly IPv6. Právě v mobilních zařízeních je totiž do velké míry budoucnost celého Internetu, především s ohledem na jejich rostoucí počet, výkon a ekonomický význam. Je zřejmé, že nástup IPv6 může mít relativně silný dopad především na bezpečnost, což je dnes jedna z klíčových oblastí vývoje jako takového. Zatímco dnes je třeba věnovat náležitou péči ošetření všech streamů a případně užívat hotové frameworky, které nemusí vždy všem vyhovovat, nová verze IP protokolu může bezpečnou komunikaci zajistit relativně rychle a snadno. Druhou velkou oblastí bude podpora multimédií, u kterých je možné vyžadovat zajištění QoS v takové míře, že bude možné snadno realizovat videokonference s velkým počtem účastníků ve vysoké kvalitě. Především v oblasti synchronizace a nároků na přenos v reálném čase může mít IPv6 pozitivní vliv. Velká je perspektiva také podpory mobility, ať již v absenci nutnosti neustále iniciovat bezpečné spojení nebo právě v jejím spojení s multimediálními přenosy.85 Jestliže se dnes postupně rozvíjí koncept inteligentních domácností, který je budován jen na třech nejvyšších vrstvách ISO-OSI modelu, tak IPv6 jim dá zcela nové efektivní možnosti a umožní jejich další rozvoj – ať již díky snazší adresaci, bezpečnosti či směrování. Protokol IPv6 se postará o celou řadu úkonů, které by jinak musel dělat levný a nepříliš výkonný čip se speciálním operačním 83 Další podrobnosti o konkrétních vlastnostech a podpoře IPv6 lze získat na webu ipv6.cz, případně v knize SATRAPA, Pavel. IPv6: internetový protokol verze 6. 84 Cisco IPv6 Lab: IPv6 Deployment. 85 CHIRUVOLU, Girish; AGRAWAL, Anshul; VANDENHOUTE, Marc. Mobility and QoS support for IPv6-based realtime wireless Internet traffic. 53 systémem. Vývojářům by se tak v této oblasti měly rychle uvolnit ruce k další tvorbě a prohlubování tohoto konceptu. Poměrně zajímavou novinkou, kterou nabízí IPv6, je mechanismus mapování prefixů, který lze velice dobře použít pro práci v lokálních sítích, nebo obecněji pro end to end řešení. Veřejný prefix je namapován na prefix stejné délky na privátních ULA adresách. Díky tomu lze izolovat vnitřní strukturu sítě od vnějšího světa. Podpora multihomingu, tedy možnosti mít více směrovačů, které označujeme za domovské (viz podpora mobility) na tuto problematiku přímo navazuje. Díky těmto změnám, lze budovat zajímavé aplikace, které budou pracovat jen jako intranetové a přitom současně může zařízení bez potíží komunikovat s dalšími směrovači. V současné době je již téměř nezbytné se aktivně podporou IPv6 zabývat především v kontextu náročných aplikací, kde dochází k přenosu velkého množství dat a je žádoucí mít k dispozici nástroje na řízení provozu či adresaci výběrovou (anycast). V takovém případě je zřejmé, že jsou možnosti, které tento protokol nabízí mnohem výhodnější a výkonnější. Ostatně to jsou také důvody, proč se již téměř veškeré „velké směrování“ (například mezi autonomními systémy) děje pomocí protokolů, které IPv6 přímo podporují. Také pokud potřebujeme vytvořit síť, ve které budou podporována multimédia a zajištěna kvalita služeb, lze jen obtížně předpokládat, že se tyto problémy podaří zajistit protokoly vyšších vrstev, ať již pomocí speciálních modifikací vysokorychlostních TCP či na úrovni aplikační. Právě možnosti efektivního využívání předdefinovaných cest jsou další z významných inovací, které z hlediska uživatelského komfortu IPv6 nabízí. Dnes je již zřejmé, že otázka (přes všechny NAT a podobné technologie) nestojí tak, zda dáme přednost konzervativní IPv4 či progresivní šestkové variantě, ale kdy bude přechod na úrovni uživatelů masivní a dominantní. Nové možnosti jsou podstatně slibnější, než jen větší adresní prostor a mělo by být v zájmu vývojářů nejrůznějších aplikací, aby se do oblasti propagace IPv6 pustili intenzivně. Otevírá jim totiž nové možnosti a šanci k řešení problémů přistupovat novým a efektivním způsobem. A to může být jeden z rozhodujících prvků strategického náskoku před konkurencí. Z globálního hlediska je pak zavedení IPv6 zcela klíčové pro efektivní směrování, takže se bez něj internet v žádném případě neobejde. Slabé stránky a možné problémy To co jsme výše popsali, může možná působit téměř idylickým dojmem. Protokol je až na nějaké dílčí drobnosti téměř hotový, připravený k implementaci a pomůže vyřešit celou řadu závažných problémů, se kterými se současný internet potýká. Ale právě chybějící přesná specifikace na úrovni RFC dokumentů je jedním z prvků, který nástup IPv6 brzdí. Dalším problémem, o kterém se příliš nemluví, je podpora na úrovni operačních systémů. Zatímco v případě BSD či Linuxu není problém, u Windows byla situace horší. Windows XP díky SP měli podporu protokolu implementovanou, ale bylo nutné ji relativně složitě ručně konfigurovat. Vzhledem k tomu, kolik existuje stále počítačů s Windows XP je zřejmé, že tito uživatelé v drtivé většině služeb IPv6 nebudou moci nijak využívat. Takto omezená množina potenciálních uživatelů (u 54 Vista, Windows 7 a 8 již problémy nejsou a protokol je plně aktivně podporován) snižuje možnosti vývoje služeb a jejich monetizaci. To samozřejmě vede k cyklickému problému – jestliže neexistují uživatelé, kteří by mohli služby využívat, nevyplácí se je programovat. Pokud nejsou aplikace, mají uživatelé jen minimální motivaci přecházet na nový protokol a tak stále dokola. Tím se také snižuje snaha poskytovatelů připojení, aby pořizovali nové směrovače a více podporovali IPv6 z hlediska infrastruktury. Takto vzniká složitá situace, ve které se koncoví uživatelé, díky své přirozené pasivitě nedostávají ke kvalitním šestkovým službám sítě. Bez potíží není ani přechod na úrovni směrovačů a aplikací. Potřebujeme vytvořit nějaký mechanismus, který by zajistil převod adres v4 na v6 a naopak, aby nevznikly dvě autonomní, vzájemně nekompatibilní sítě. Existuje několik možností, ale žádná není samozřejmě bez potíží. Historická zkušenost také ukazuje, že snaha o kompatibilitu za každou cenu je sice dobrá z hlediska krátkodobého profitu a migrace uživatelů, ale nese s sebou také celou řadu rizik a problémů.86 Nejelementárnější řešení, které si lze představit, je duální zásobník. Jedná se o poměrně naivní řešení – máme IPv4 síť a uzlům, které mají tu potřebu, přiřadíme také IPv6 adresu. Směrovače a sítě se pak postarají o to, aby všechny pakety docházely na obě adresy. To s sebou nese řadu nevýhod – směrovače musí udržovat dvakrát větší tabulky, všechny směrovací algoritmy musí být vytvořené dvakrát a programy mají problémy se vzájemnou komunikací. Navíc se není možné spolehnout na funkce, které IPv6 přináší navíc. Jde tedy řešení, které umožňuje funkčnost sítě, ale neřeší žádný z problémů IPv4. Druhou možností je tunelování. Tato technika se používá ve chvíli, kdy potřebujeme propojit dvě sítě (nebo uzly), které pracují v jedné verzi protokolu prostřednictvím sítě, jenž pracuje ve verzi druhé. Nadefinujeme dva výstupní body, které slouží jako paty mostu a ty budou každý příchozí paket obalovat příslušnou hlavičkou, respektive přídavné hlavičky odstraňovat na druhé straně. Problémem jsou nároky na tyto vybrané uzly a také bezpečnost. Není zde ale ani garance dalších služeb (podpora QoS například). Teoreticky se nejlépe jeví možnost využít překladačů. Nabízí možnost překládat IPv6 adresu na IPv4 a naopak stejně jako u tunelování. Jednotlivé uzly tak nemusí vůbec vědět, že komunikují s jinou sítí. V ideálním stavu už měl veškerý IPv4 obsah i svou 6to4 IPv6 adresu s prefixem 2002:IPAD:RESA::/48.87 K jedné IPv4 adrese tak existuje celý blok IPv6 adres. Nevýhodou opět je, že se nemůžeme spolehnout vždy na podporu služeb IPv6 a především nezájmem ISP, kteří podobné bloky neudělují. Nevýhodou také je plýtvání adresním prostorem. V neposlední řadě je možné se zmínit o nutnosti používat příslušný hardware ve směrovačích a dalších síťových zařízeních, což může být spojeno jak s obtížemi technického charakteru, tak také s ekonomickými náklady. 86 YORK, Dan. Migrating applications to IPv6. 87 SATRAPA, Pavel. IPv6: internetový protokol verze 6. Str. 55-91. 55 Aktuální projekty Podle statistik CZ.NIC laboratoří má AAAA záznam 13,49 procenta domén v .cz zóně. To znamená, že takové procento webů je v českém doménovém prostoru připraveno na běh pod IPv6. Pro porovnání se světem je možné říci, že ve světě je mezi TOP 500 stránkami jen asi 7 % podíl těch s AAAA záznamem.88 Český ISP Telefonica nabízí všem svým stávajícím zákazníkům IPv6 adresu a současně již prodává jen routery a modemy, které mají přímou podporu IPv6. Objem dat, která na internetu proteče přes IPv6 je asi 60% a účastní se jej ale jen 1% uživatelů.89 Česká republika patří mezi deset států s největší podporou IPv6, takže prostředí pro český business je v tomto ohledu velice příznivé. Ostatně v této oblasti se silně angažuje také akademická sféra a její CESNET. Naopak na Slovensku je situace podstatně horší a za vzrůstajícím počtem serverů, které podporují IPv6 stojí především české projekty, které jsou v této zemi hojně navštěvované jako je Seznam či Centrum. Podobně jiní velcí hráči, jako je Google či Facebook mohou stát za velkými nárůsty v řadě menších internetových ekonomik. Z hlediska softwaru je třeba říci, že aplikace musí pro ukládání adres používat větší datové struktury než pro IPv4 a současně je potřeba počítat s tím, že k jednomu doménovému jménu DNS typicky vrátí seznam adres. Jedno rozhraní může mít také více adres, mezi kterými je třeba vybírat. Na druhou stranu stabilní a osvědčené protokoly a nástroje vyšších vrstev ISO-OSI modelu (SMTP, FTP, SSH či WWW) již dlouho tuto verzi podporují. Podobně velká část vývojových prostředí, která jsou novějšího data, již podporu tohoto prostředí mají zabudovanou, takže ani z vývojářského hlediska by neměl být žádný velký problém. 88 PRŮŠA, Jiří. IPv6 v Česku měsíc po „dni D“. 89 PETERKA, Jiří. Telefónica nasazuje IPv6 na svém xDSL. 56 Internet věcí Internet věcí je již relativně starý koncept, ale až v posledních několika málo letech se o něm začíná více mluvit. Vychází z relativně jednoduché myšlenky – zatímco současný internet je tvořen z 99 % navzájem komunikujícími počítači, tak v budoucnu by do sítě mohla být zapojena další zařízení, která počítač v té či oné podobě obsahují také. Může jít o automobily, ledničky, hodinky nebo třeba chytré domácnosti a senzorické sítě. Internet věcí je tedy koncept internetu, v rámci kterého je většina komunikace realizována stroji, které jsou nepočítačového typu a většinou bez přímého zásahu člověka. Takto koncipované sítě mají potenciál zásadním způsobem změnit jak naše poznání o světě, tak také například dopravu, život lidí nebo podobu toho, jak vypadá běžné fungování domácnosti. Cílem těchto technologií má být primárně vytvoření synergického spojení dílčích informací a zařízení, které povede jak k lepším ekonomickým či logistickým výsledkům, tak také k nárůstu kvality života a životní úrovně. Je přitom třeba zdůraznit, že internet věcí neznamená přístup na internet prostřednictvím nějakého zařízení, ale více méně automatickou komunikaci zařízení se sítí. Není třeba žádného terminálu, klávesnice nebo něčeho podobného. Samotným pojmem věci se mají na mysli všechna zařízení, která obsahují či potenciálně mohou obsahovat počítač. V podstatě tak bude internet věcí do velké míry závislý na bezdrátovém, často mobilním, přístupu k síti, neboť velká část těchto předmětů může být snadno přenášena či přemísťována (jako například běžecké boty nebo příbor). Internet věcí by měl být technologií, která přidá těmto zařízením zcela nový rozměr funkcionality. Příbor nebude již jen k přímé konzumaci potravin, ale bude umět počítat kalorie, boty zaznamenávají trasu a rychlost běhu, hodinky tep a z výsledných dat může patřičný program řídit životosprávu člověka, který chce zhubnout nebo za půl roku běžet maraton. Možností využití je ale samozřejmě více a jde o komplex služeb, pro jejichž rozvoj budou nezbytné zásahy do (téměř) všech protokolů na jednotlivých vrstvách ISO-OSI modelu. 57 Předpokládaný vývoj internetu věcí.90 Současná technická praxe Ač na internet věcí v roce 2013 připadá pouhé jedno procento objemu přenesených dat na internetu, tak podle společnosti Cisco generuje obrat asi 613 miliard dolarů.91 Jeho podíl rychle roste a s ním i poptávka po technologiích na nejrůznější úrovni, které by jej uměly efektivně využívat. Zatímco velká část opravdového internetu věcí – tedy zařízení běžných potřeb – zůstává ležet ladem, největší podíl na obratu mají robustní systémy pro správu logistiky a výroby. Jestliže se hovoří o internetu M2M, tak jde o podmnožinu internetu věcí, která obsahuje právě velká výrobní zařízení, jako jsou stroje, velká překládací a dopravní zařízení atp. Ta už dnes bývají často doplňována senzorickými sítěmi, které jejich možnosti podstatně rozšiřují. Příkladem může být přístav v německém Hamburku, který má tímto konceptem řešený nejen výklad a náklad lodí, ale také celý pohyb zboží a personálu po docích. Díky těmto sítím lze celý přístav dokonale řídit a zvýšit jeho výkon, aniž by bylo třeba stavět nové budovy či rozšiřovat přístaviště.92 Stačí optimalizovat stávající stav, k čemuž se kombinace klasických zařízení a senzorických sítí propojených do jednoho celku výborně hodí. Již v úvodu jsme řekli, že celý koncept internetu věcí si bude vyžadovat úpravu ISO-OSI modelu ve všech úrovních, respektive nové protokoly implementující funkcionality jednotlivých vrstev. Na první pohled největším problémem může být nedostatek IP adres a absence podpory mobility uzlů v rámci sítě, tedy to, co je třeba řešit na úrovni síťové vrstvy. Oba problémy řeší přechod do IPv4 k IPv6, i když s různou mírou úspěchu. Pokud jde o adresy, tak těch je rámci šestkového protokolu skutečně 90 Internet of Things. Wikipedia. 91 SALÁK, Jan. Internet věcí bude bilionový byznys. I pro české firmy. 92 MAGYAR, Judith. The Ubiquitous Internet of Things: Managing Cities the Smart Way. 58 dostatek a není nutné mít obavy, že masivní rozšíření podobných sítí by znamenalo jejich vyčerpání (3.4×1038 unikátních adres je dostatečný prostor). Druhým problémem síťové vrstvy je zajištění mobility. Zde je třeba říci, že se s touto funkcí v IPv6 počítá,93 ale výsledná specifikace není stále hotová. Existuje tak idea bez finálního praktického řešení, což může být pro internet věcí velice nepraktické. Často to vede k nutnosti buď částečného offline režimu (boty zašlou všechny informace, až jsou doma) nebo využívání velkých sítí (například mobilních). Další úpravy budou nutné také na úrovni spojové vrstvy, která u klasického M2M nepředstavuje žádný problém. Velká část zařízení bude odkázána na mobilní baterii, takže kritickým místem internetu věcí může být spotřeba. Dnes již existují řešení jako je Bluetooth, které umožňuje budovat sítě s malou spotřebou, zvláště pokud nedochází k aktivnímu přenosu dat, ale jen ke stavovému hlášení.94 Lze ale očekávat, že nejrůznější protokoly, budou pro různé třídy zařízení řešit tento problém různě, což lze vnímat na jedné straně jako výzvu, ale také jako hrozbu. Pochopitelné jsou pak úpravy v horních třech vrstvách tak, aby dokonale odpovídaly možnostem a potřebám, které budou s provozem internetu věcí spojené. Opět lze očekávat akcent na podporu zařízení s nižší spotřebou, občasným provozem a nepříliš velkým výkonem. Internet věcí samozřejmě může existovat také v mantinelech stávajících sítí a to včetně kritického IPv4 protokolu, jen nejsou přenosy dat řešeny tak efektivně, jak by mohly být. Z hlediska systému zařízení je možné identifikovat několik skupin. První tvoří skutečně malé předměty s jednoduchým, často jednoúčelovým operačním systémem, který zvládá jen velice omezenou množinu úkolů. Procesor je málo výkonný a paměť malá. Pokud chceme provádět nějaké aplikace s tímto typem zařízení, je třeba mít na paměti, že výpočetní nároky je nutné delegovat někam jinam. Druhou skupinou jsou větší přístroje, které v sobě mohou mít klasický operační systém, který je doplněný jen změněným grafickým rozhraním a patřičnými moduly. Společnost Canonical Ltd, která stojí za vývojem nejpopulárnější desktopové linuxové distribuce Ubuntu přišla s nápadem, že by ráda svůj systém ve stejné variantě umísťovala do různých zařízení – dnes je podporována televize, mobilní telefon či desktop a tablet, ale měl by k nim přibýt automobil a další podobná větší zařízení. To dává vývojářům snadnou možnost rychle a jednoduše vyvíjet aplikace, které budou moci užívat všechna zařízení, nejen konkrétní typ, pro který často není k dispozici žádné rozumné vývojové rozhraní.95 Tím, jak bude stále více zařízení přistupovat do sítě, poroste potřeba je vzájemným způsobem propojit tak, aby je bylo možné smysluplně využívat. Zřejmě nejjednodušší a nejslibnější cestou v této oblasti je cloud, který poskytne snadný přenos dat mezi jednotlivými „věcmi“ a navíc je schopen garantovat také určitou podporu v oblasti výpočetní síly. Velká část současných finančních prostředků, které připadají na internet věcí je koncentrována právě v cloudových službách, které mu zajišťují provázanost a faktickou podporu. A nelze očekávat, že by se na této situaci mělo něco v budoucnu měnit. 93 Viz předchozí kapitola o IPv6. 94 LINDE, Joakim; TUCKER, Brian J. DATA TRANSFER USING THE BLUETOOTH LOW ENERGY STANDARD. 95 ČERNÝ, Michal. Ubuntu se zásadně změní. Je důvodem prodej? 59 Z hlediska praktické implementace lze identifikovat dva hlavní proudy, kterými se dnešní internet věcí ubírá. První je identifikace věcí a prostá výměna dat. Může jít o přiložení hodinek ke snímači, ze kterých se odečte čas, který člověk strávil v práci nebo dráha, kterou nachodil a řada dalších informací. To lze zajistit relativně velice jednoduše. Buď cestou pasivního přístupu přes nejrůznější varianty QR kódů a dalších záznamových médií,96 nebo aktivně pomocí NFC,97 což je dnes zřejmě dominantní, rychlé a bezpečné řešení. Druhým problémem je propojení věcí a zajištění jejich spolupráce. Zde se již dostáváme k nutnosti tvorby zmíněných sítí většího rozsahu, pokročilého směrování atp. Zatímco o konkrétních formách práce prvního proudu existují zcela konkrétní představy, tak v druhém případě je k dispozici mnohem větší prostor pro kreativitu nejen na úrovni aplikací, ale také v nižších vrstvách ISO-OSI modelu, což je relativně výjimečná příležitost. Samostatným tématem jsou pak senzorické sítě, které koncept málo výkonných zařízené s minimální možnou spotřebou ženou do extrémů. Speciální směrovací algoritmy, které se dnes běžně využívají, budou moci být díky IPv6 upraveny a senzory budou moci být plnohodnotnou součástí internetu, což opět otevírá možnosti pro jejich masivní využití nejrůznějším způsobem. Návaznost na další technologie Mimo zmíněnou návaznost na síťové technologie, které s internetem věcí bytostně souvisí, lze zmínit například big data. Jestliže poroste podíl internetu věcí, rozhodně to nebude na úkor dalšího provozu, ale poroste objem v absolutní hodnotě. Takto vytvořená data bude třeba nějakým způsobem zpracovávat a analyzovat. Lze tak očekávat nejrůznější distribuované cloudové služby, které by umožnily takto získané obrovské objemy dat nějakým způsobem zpracovávat a dále využívat. Jestliže půjde o systémy uvnitř velkých organizací, jako jsou výše uvedené doky v Hamburku, bude důležitou cestou podpora vlastní firemní infrastruktury, což implikuje návaznost na virtualizaci a opětovný big data problém – ať již jde o dlouhodobé analýzy, uchovávání dat či jejich zabezpečení. To vše bude třeba velice pečlivě a systematicky řešit. Důležitá bude také návaznost na Complex event processing systémy,98 které mají využívat komplexní dat pro rozhodovací procesy. Jsou to právě senzorické sítě nebo internet věcí, které umožňují získat mnohem podrobnější představu o tom, jaký je stav sledovaného objektu než jaké nabízejí klasická řešení. Například díky řadě čidel a dalších zařízení lze sledovat nejen nákupní vzorce lidí, ale také jejich závislost na teplotě nebo emocionálním stavu kupujících. Zmínit lze jistě také návaznost na počítačové zpracování emocí. Jestliže budou zařízení schopná detekovat emoce jejich uživatele, nejen, že se mu budou moci přizpůsobit, ale mohou jeho komfort dopředu zajistit - což platí například u inteligentních domácností – nebo s ním jiným způsobem pracovat. 96 Podrobněji WINTER, Mick. Scan me: everybody's guide to the magical world of QR codes-- barcodes, mobile devices and hyperlinking the real to the virtual. 97 SEO, Yoon Deuk; AHN, Jin Ho. Efficient NFC Tagging Pattern-Based Contents Recommendation for Museum Viewers. 98 Viz kapitola Complex event. processing. 60 Silné stránky a možnosti Některé silné stránky internetu věcí jsme již výše naznačili. Prvním pozitivem může být optimalizace procesů a podpora pro manažerské techniky jako je lean management či TQM. Díky přesnému přehledu o tom, jak se jednotlivé objekty pohybují, jakou vykonávají činnost a co se s nimi děje lze velice účinně pracovat na plánování tak, aby se dokonale využívalo zdrojů, což má zřejmý pozitivní ekonomický dopad.99 Příkladem typického využití internetu věcí pro optimalizaci může být Energomonitor, za kterým stojí Patrick Zandl. Jde o zařízení, které měří spotřebu elektrické energie a data posílá na internet. Nad tímto fyzickým zařízením je patřičné uživatelské rozhraní, které umožňuje identifikovat profil spotřeby elektrické energie a podle něj upravit své chování. Podle spotřeby a jeho profilu umí systém navrhnout změnu dodavatele, optimální tarif nebo navrhnout ideální čas pro spínání spotřebičů s velkou spotřebou. Tento příklad je pro internet věcí mimořádně signifikantní, protože ukazuje synergii mezi fyzickými zařízeními a jejich softwarovou nástavbou, která může mít vliv na chování samotných lidí. Jedním z důležitých momentů je obecná snaha o zlepšení životní úrovně uživatelů. Velká část typického internetu věcí směřuje právě k tomu, aby se lidem žilo lépe – od podpory a analýzy sportovních aktivit, až po chytré domácnosti. Právě koncový uživatelé představují jednu z velice zajímavých cílových skupin, protože – především v západním světě – stále roste důraz na zdravý a kvalitní životní styl. Nejrůznější boty, které měří vzdálenost a rychlost běhu patří mezi velice populární zboží a lze je zmínit také v kontextu tématem Quantified self.100 Jde o hnutí či fenomén zaznamenávání dat o sobě samých a jejich následné zpracování. Nejčastěji se hovoří o jejich využití v oblasti medicíny (optimalizace životního stylu, diety, chování pacienta, identifikace stresu atp.), ale také můžeme hovořit o masivním nárůstu sdílení těchto informací a jejich diskusi v rámci internetového prostředí. Tak lze například získávat zpětnou vazbu na své běžecké pokroky od komunity, cenné rady nebo se jen chlubit. Zajímavou možností bude do budoucna hledání protokolu, který by zajistil jednotnou komunikaci zařízení mezi sebou. Dnes se hojně užívá pro jednodušší zařízení RFID (Radio Frequency Identification Device),101 která umožňuje třeba snadné sledování pohybu objektů a jejich tras. Užívá se třeba u digitálního mýta, ochrany majetku či pro elektronické klíče. Technologie stojí od fyzické vrstvy až po spojovou, což je výhodné z hlediska snadného návrhu specializovaných zařízení pro internet věcí. Na druhou stranu zajímavý protokol pro propojení a sdílení dat náročnějších aplikací Android@home, který měl propojit všechna zařízení do jednoho komunikačního bodu s Androidem, nevyšel. Hledání pokročilejších a robustnějších protokolů, než je zmíněné RFID, tak bude zřejmě pokračovat. 99 HARRIS, Frank; MCCAFFER, Ronald. Modern construction management. 100 SWAN, Melanie . Sensor mania! The Internet of Things, wearable computing, objective metrics, and the Quantified Self 2.0 101 Podrobněji o zmíněné technologii například v SMITH, Joshua R. (ed.). Wirelessly powered sensor networks and computational RFID. 61 Internet věcí může zajistit velice dobré prostředí pro tvorbu osobního technologického ekosystému, zvláště pokud bude spojen se systémy pro zpracování emocí. Tablet může zaslat informaci inteligentní domácnosti, že uživatel bude za pět minut doma, že je mu zima a má špatnou náladu. Pro navazující systémy pak je již snadné zvýšit teplotu topení, uvařit čaj nebo pustit příslušnou hudbu. Stále větší integrace jednotlivých zařízení do gridů bude mít za následek rostoucí komfort lidí, kteří je budou používat. Internet věcí představuje společně s big data jednu z největších výzev, před kterou současný internet stojí. Možnosti, které se nabízejí z hlediska medicínských technologií, ale také optimalizace procesů, řízení dopravy (semafory analyzující aktuální dopravní situaci mohou silně pomoci omezit kolony nebo podpořit plánování nových tras), energetiky a dalších oblastí. Do sítě se budou zapojovat zařízení, jejichž potenciál zůstává dnes nevyužit a bude záležet jen na fantazii a kreativitě tvůrců, jak jej budou schopni využít. Již jednou zmiňovaný Patrick Zandl k tomu trefně dodává, že pokud někoho mrzí, že nebyl u vzniku klasického webu, má šanci se účastnit další revoluce – ta nese jména big data a internet věcí.102 Slabé stránky a možné problémy Prvním problémem, na který bude internet věcí narážet je bezpečnost, což je téma, které bude s rozvojem těchto sítí stále důležitější. Řada antivirových firem již dává jasně najevo, že po rozvoji antivirových systémů pro mobilní telefony jsou na řadě ty, které by ochránily ledničky, pračky nebo třeba právě automobily. Příklady zneužití mohou být velice pestré – od čistě destruktivních, jak je zmatení rychlostních radarů v automobilech, které mají hlídat vzdálenost od vepředu jedoucího vozidla tak, že auto se stane nebezpečné, nepojízdné nebo dokonce způsobí havárii, až po podstatně rafinovanější ekonomicky orientované útoky. Bezpečnost tak představuje jeden z nejvážnějších problémů, se kterými se bude muset internet věcí nějakým způsobem vypořádat a rozhodně to nebude zadarmo. Přinejmenším v ohledu na požadavky procesoru a pamětí mohou antivirové a bezpečnostní systémy znamenat vážný ekonomický problém, který zpomalí celý proces rozvoje internetu věcí. Na druhou stranu ale představují skvělou příležitost pro vývojáře bezpečnostního softwaru nebo návrháře bezpečnostních strategií a systémů. S tím úzce souvisí druhý problém, tedy spotřeba. Nejčastěji užívané technologie pro provozu senzorických sítí či internetu věcí, jako jsou ZigBee, Bluetooth, NFC či RFID nějakým způsobem spotřebu energie sice řeší, ale nejde o uspokojivé varianty. Lze minimalizovat spotřebu ve stavu, kdy je dané zařízení neaktivní (sluchátko handsfree sady, když se zrovna netelefonuje), ale v případě pravidelného či permanentního provozu je zde problém. Cesty k řešení jsou různé – od bezdrátového nabíjení, přes optimalizaci čipů a zařízení tak, aby měly co možná nejnižší spotřebu, až po vývoj baterií. Samozřejmě existují i zajímavá alternativní řešení, jako je využívání energie z rostlin, malé solární články či transformace kinetické energie na elektrickou daná okolním působením (příkladem je natahování hodinek při běžném pohybu rukou za chůze). Malá výdrž zařízení, respektive velká spotřeba výkonnějších „věcí“ může internet věcí nepříjemně redukovat na zařízení velká či stacionární, pro které není nedostatek elektrické energie tak problematický. 102 ZANDL, Patrick. Chcete změnit svět? Věnujte pozornost Internetu věcí a Velkým datům. 62 To má také ekologický rozměr – nárůst zařízení, která spotřebovávají elektrickou energii, mohou mít za následek negativní dopad na životní prostředí, především v oblastech, které využívají fosilních paliv. Nejde přitom ale jen o samotnou spotřebu v oblasti fungování takových zařízení, ale také o ekologickou likvidaci nebo zdroje potřebné na jejich výrobu. Jestliže budou ve všech botách, vidličkách či oblečení běžně čipy, nelze se vyhnout otázce po ekologické udržitelnosti takové technologie a to i přesto, že řada „věcí“ může díky optimalizaci životní prostředí chránit. Problémem, který je nutné zmínit také, je zásah do soukromí. Jestliže je v západním světě vnímáno soukromí jako hodnota, která má přímý vliv na demokracii a svobodu,103 tak lze očekávat problémy v přijetí těchto technologií širší veřejností, která si začne uvědomovat, že neustálé zasílání dat o tom, co dělají, jak se cítí nebo kde se pohybují, je relativně snadno zneužitelné. Nedávné problémy se zneužíváním dat bezpečnostními složkami v USA může vyvolávat otázky, zda nepovede rozvoj internetu věcí k podpoře omezování soukromí, špehování nebo dokonce zda nebude složit jako ideální nástroj pro podporu totalitních režimů. Výše zmíněné hnutí Quantified self rozhodně není v tomto kontextu bezproblémové a může posloužit jak ke sledování občanů státem, tak také k analýze toho, kde se pohybují děti či partner, co dělají atp. Jde o jedno z klíčových úskalí, se kterými se bude muset internet věcí vyrovnat na úrovni sociálního a etického rozměru této služby. Podobně lze očekávat, že bude existovat stále početnější skupina lidí, kteří budou závislost na výpočetní technice vnímat jako negativní a budou ji chtít ze svého života zcela vytěsnit. Aktuální projekty Již výše jsme zmínili celou řadu zajímavých aplikací, jako je Energomonitor či systém řízení přístavu v Hamburku. Existuje však velké množství dalších užitečných aplikací tohoto konceptu, z nichž možná nejpopulárnější je vidlička od společnosti HAPILABS, která dokáže rozpoznat, jak rychle člověk jí, a pokud to dělá moc rychle, začne vibrovat. Vychází přitom z faktu, že člověk se nasytí i relativně malým množstvím jídla až za 20 minut. Díky spojení s mobilním telefonem lze s vidličkou vytvářet speciální hubnoucí plány a zkoumat své konzumní statistiky. Dalším příkladem zařízení, která budou stále rozšířenější, je náramek Flex, který slouží jako krokoměr, měřič pulsu, spálených kalorií či kvality spánku. Vše umožňuje v reálném čase zobrazovat v mobilním telefonu. Samozřejmostí je možnost nastavení si osobních plánů na aktivitu, kterou má člověk vykonat. Podobná zařízení, která umožňují měřit tep, puls či teplotu jsou jednou z budoucností odvětví internetu věcí.104 Internet věcí lze realizovat také pomocí již fungujících zařízení, která se vhodným způsobem využijí. Příkladem může být aplikace Sleep as Android,105 která slouží pro monitorování spánku klasickým telefonem, který si nechá člověk zapnutý vedle hlavy, s tím, že telefon pak sám optimalizuje dobu buzení. Podobně lze třeba měřit puls. Spojení internetu věcí a již funkčních hotových zařízení se jeví jako velice praktické a perspektivní, hlavně z hlediska dostupnosti pro koncového zákazníka, který si jen nainstaluje příslušný software na vlastní telefon a může jej hned začít využívat. 103 ČERNÝ, Michal. Ke konceptu soukromí v informační společnosti. 104 Ifitbit. Fitbit Flex. 105 Google Play. Sleep as Android. 63 Mimořádně populární jsou také systémy na podporu inteligentní domácnosti, kterou lze do velké míry ovládat přes síť – ať již jde o řízení zabezpečovacího systému, ledničky, která je schopná analyzovat, jaké potraviny v ní již nejsou a sama je objednávat, až po topení, které lze zapnout na dálku, stejně dobře jako osvětlení proti zlodějům nebo dětem televizi. V současné době jde o jednu z nejrozšířenějších aplikací, na kterou se bude postupně nabalovat řada dalších komponent a vylepšení klasického obytného standardu. 64 Rozšířená realita Podstatu rozšířené reality (anglický termín augmented reality, se někdy v češtině tlumočí jako argumentovaná realita) je klasický koncept, který zná každý fanoušek sci-fi, který viděl filmy jako je Terminátor či Star Trek, kde hrdinové namíří na nejrůznější objekty zařízení a před očima se jim zobrazí kompletní výpis informací o nich. Rozšířená realita tak stojí mezi světem skutečným a zcela virtuálním.106 Takový popis ukazuje široké spektrum toho, jak je možné rozšířenou realitu chápat a využívat. Od relativně jednoduchých aplikací s mobilním telefonem, který určuje rychlost kolem jedoucích aut, až po komplexní a robustní systémy spojené s brýlemi a podobnými zařízeními, které umožňují dynamicky reagovat na situaci a poskytují velice širokou funkcionalitu, včetně možnosti vývoje aplikací pro taková zařízení. V současné době je základem téměř všech podobných systémů kamera, která scénu snímá, pak počítač, který ji identifikuje, analyzuje a pracuje s výpočty a v neposlední řadě také zařízení, na kterém se zobrazí výsledek pro uživatele. Jak jsme již uvedli, samotná zařízení, která poskytují funkcionalitu pro rozšířenou realitu, mohou být různá, podle toho, s jakou sadou funkcí chtějí pracovat. Futuristické vize pak hovoří o tom, že budoucnost bude ve vestavěných čipech přímo v lidském těle, avšak to rozhodně nepředstavuje časový horizont, kterému se věnujeme v této publikaci. Ostatně pojem rozšířené reality je poměrně přesný – uživatel vidí více, než co se před ním ve skutečnosti nachází. Jde také o základní hermeneutický předpoklad či klíč, se kterým je k vývoji aplikací tohoto druhu přistupovat. Hledat možnosti, jak na základě objektů světa fyzického a jejich chování, rozšířit informace, které má člověk k dispozici. Motivací přitom není většinou hra, ale přímý ekonomický profit či zlepšení pracovních podmínek lidí, kteří mohou své profese vykonávat díky podobným zařízením mnohem efektivněji a lépe. 106 MICHAL, Černý. Rozšířená realita: od mobilního telefonu k chytrým brýlím. 65 App iSkull je výukovou aplikací využívající konceptu rozšířené reality.107 Současná technická praxe Rozšířená realita je sice tématem, které je častým námětem nejrůznějších sci-fi filmů a knih, ale současně má již dnes obrovské množství praktickým aplikací. Jde o trend s velkou návazností nejen na další softwarové trendy, ale také technologie a služby, které jsou částečně mimo základní produkci IT. Příkladem mohou být nejrůznější akcelerometry, kompasy či gyroskopy, které jsou dnes běžnou součástí chytrých mobilních telefonů či tabletů, které mají za cíl (mimo jiné) poskytovat funkční základnu pro práci s rozšířenou realitou. Pokud jde o základní hardwarovou strukturu zařízení, která pracují s augmented reality, lze identifikovat relativně snadné abstraktní schéma. Základem je vždy nějaký detektor (nejčastěji kamera), který dodává informace o fyzickém světě.108 Mimo kamery lze použít mikrofon či jiné čidlo, ale nejde o standardní řešení. Je přitom třeba uvážit na jedné straně hmotnost a rozměry takového zařízení, na straně druhé fyzikální omezení, která mohou být pro algoritmy problematické (k tomu se ještě vrátíme). Druhou komponentou je počítač či jiné zařízení, které analyzuje příchozí data, identifikuje v nich patřičné objekty a poskytuje k nim další informace. Mimo procesor je tak nezbytná paměť, řadiče, ale většinou také připojení na internet, neboť velká část aplikací nepracuje jen s lokálními daty. Obvykle se setkáváme se snahou tato zařízení miniaturizovat, což vytváří limity v podobě omezeného výkonu a paměti, stejně jako spotřeby. Baterie jsou velké a těžké, jejich miniaturizace postupuje relativně pomalu a představují tak jedno z hlavních omezení. 107 Augumented reality. Wikipedia. 108 TERNIER, Stefaan, et al. Mobile augmented reality with audio. 66 Mimo fakultativního síťového adaptéru a dalších připojených čidel (GPS, kompas, gyroskop) je nezbytnou součástí také určité výstupní zařízení. Lze použít obrazovku mobilního telefonu nebo například populární HUD display. Jde o průhledné obrazovky, na které se mohou promítat informace. Dnes se hojně užívají především ty čtvrté generace, které umožňují pracovat i s video obrázky za využití laseru a tekutých krystalů. Z hlediska technologie identifikace obrazu lze pracovat s různými základními postupy. První, nejjednodušší možností je využití markerů. Jde o 2D kódy či obrázky, které umožňují s objektem nějak dále pracovat. Nejjednodušším příkladem může být třeba QR kód109 na dveřích učebny, který zobrazí rozvrh a kontakt na správce dané místnosti. Lze je ale používat také v knihách, inzerci nebo v galeriích pro více informací o obraze, aniž by bylo třeba všude dávat rozsáhlé multimediální panely či plakáty.110 QR kódy jsou dnes jednoznačně nejrozšířenější technologií svého druhu a i když mají řadu variant a konkurentů, je princip činnosti vždy velice podobný. Kamera identifikuje 2D kód a pomocí přenesené informace provede příslušnou akci – předá vizitku, odkaz, zobrazí text atp. Tyto kódy obvykle obsahují velké množství redundantních dat a nejsou právě nejpohodlnější a nejrychlejší záležitostí pro běžného uživatele. Na druhé straně jsou technicky rozhodně nejsnazším řešením.111 Druhou možností pracující se zcela jiným přístupem je analýza zobrazených objektů. Princip je velice podobný, jako v případě algoritmu pro převod bitmapové grafiky na vektorovou. Dochází k identifikaci nejdůležitějších křivek a jejich převod na polynomy, které jsou vzájemným způsobem porovnávány. Lze také pracovat s dalšími parametry, jako jsou barvy, spojení polynomů nebo identifikace pohybujícího se bodu. Výhodou tohoto postupu je velká robustnost použitého postupu. Polynomy jsou také relativně nenáročné na přenos dat a lze s nimi dobře pracovat v databázích.112 Problémem takového postupu je ale výpočetní náročnost, shodnost více objektů a přítomnost optických vad objektivu. Díky difrakci dochází k nutné deformaci obrazu u krajů, což je zvláště patrné u malých kamer, kde jsou vady téměř v celé ploše a to značně netriviálního charakteru. Tyto vady mají vliv na výpočet vhodného polynomu, takže značně ztěžují identifikaci objektů, které se nacházejí před kamerou. Třetí variantou, která se nejčastěji používá ve spojení s druhým postupem je práce s geolokačními funkcemi. Jestliže systém zná přesnou polohu zařízení (pomocí GPS souřadnic), její orientaci v ploše (elektronickým kompasem) a v prostoru (pomocí gyroskopu) může relativně snadno zjistit, na jakou památku či jiný stacionární objekt se člověk dívá. Nejde jistě o univerzální řešení, ale například pro identifikaci památek jde o výborný a hojně používaný nástroj. Kombinace třetího a druhého přístupu často spočívá v tom, že pomocí lokalizace zařízení a uživatele se omezí množina prohledávaných dat a přepočet polynomů pak nemusí být tak přesný a citlivý, protože jen rozhoduje, který z dvou či pěti objektů je před uživatelem. 109 Alternativou mohou být například Blipper, Microsoft Tab, Google Goggles, MaxiCode či EZ Code. Zajímavé jsou ale především AR code, které umožňují informaci zanést do pěkně vypadajícího dichromatického obrázku či SnapTag. 110 Využití QR kódů ve školství. QR - kody.cz. 111 ULLRICH, Johannes. Malicious Images: What's a QR Code. 112 ZEZULA, Pavel. Future Trends in Similarity Searching. In Gonzalo Navarro and Vladimir Pestov. Proceedings of the Simimarity Search and Applications 2013. 67 Dnes je nejčastějším způsobem práce s rozšířenou realitou využívání mobilního telefonu. Lze přitom využít všech možností, které nabízejí příslušná API či frameworky. Pak již stačí jen vhodným způsobem zpracovat obraz a připojit k němu příslušnou další informaci. Podobný vývoj aplikací bude přitom možný i pro Google Glass, které představují zřejmě nejpopulárnější příklad speciálního zařízení stavějícího na internetu věcí.113 Přístup k tomu, jak musí být zpracování obrazu náročné, se přitom značně různí. Velký úspěch mají často jen triviální aplikace, které například umožňují měřit úhly či vzdálenosti od určitých objektů (když jsme schopni definovat nějaké referenční měřítko) nebo třeba aplikace pro vyhledávání majitelova automobilu na parkovišti. Jiným příkladem velice jednoduché aplikace mohou být virtuální planetária – pomocí GPS, kompasu a gyroskopu systém ví, jakým směrem se uživatel dívá a na obrazovku mu vypisuje polohy hvězd, jejich jména či kreslí souhvězdí. Tyto příklady ukazují, že dobrých výsledků lze dosáhnout s relativně málem programátorských či analytických zkušeností, ale že je třeba mít vždy dobrý a zajímavý nápad. Na druhou stranu existuje zde velký prostor pro náročné experimentální projekty, které budou čerpat jak z pokročilých metod zpracování obrazu, tak také z matematické informatiky. Takto definovaný prostor jen mimořádně široký a zajímavý pro vývojáře všech velikostí a teoretických znalostí. Návaznost na další technologie Rozšířená realita má úzkou návaznost na problém big data. Obecně je třeba prohledávat velké objemy dat a hledat správné informace, což je často kombinováno s poněkud netradiční strukturou dat, ve kterých k vyhledávání dochází.114 Problém lze částečně řešit matematizací objektů, což ale zvyšuje nároky na výkon a spotřebu zařízení, případně do celého procesu zpracování ještě vložit mezičlánek virtualizace či cloudu. Blízko má tato technologie také k počítačovému zpracování obrazu (případně dalších dat), ze kterého si bere metody, techniky a koncepty dolování informací z klasických dvou nebo tří rozměrných objektů. Především metody matematizace, rozpoznávání obličejů nebo práce s markery jsou v této části informatiky dobře zpracovány a nacházejí zde hojné využití.115 Neméně významnou příbuznou disciplínou ke zpracování obrazu je OCR (Optical Character Recognition), tedy rychlá a automatická identifikace a rozpoznání textu na obrázku a jeho převod do lépe zpracovatelné polohy. Pro řadu aplikací jde o klíčovou funkci, kterou lze využívat nejrůznějším způsobem – například pro překlad jídelního lístku, zjištění recenzí na prohlíženou knihu atp. OCR by tedy mělo v optimálním případě pracovat v reálném čase a nabídnout případné další funkce z oblasti zpracování přirozeného jazyka, jako je zmíněný strojový překlad. Velmi blízko má augmented reality také k internetu věcí, do kterého je často také sama zapojena nebo jehož služby aktivně využívá. Klíčovou je pak spolupráce s vyhledáváním a databázovými systémy. Nejde jen o prosté procházení SQL databází, ale také o využití alternativních konceptů. Jak technologie procházení multimediálních dat, tak i sémantického webu se přitom mohou práci s jednotlivými aplikacemi výrazně pomoci a prospět. 113 Google Glass. Google. 114 Většinou jsou efektivnější noSQL databáze. 115 KATO, Hirokazu; BILLINGHURST, Mark. Marker tracking and hmd calibration for a video-based augmented reality conferencing system. 68 Rozšířená realita bude stále více spolupracovat také s dalšími technologickými trendy, které mají těsnou návaznost na elektrotechniku či zpracování elektrických signálů. V budoucnosti budou tato zařízení také aktivně využívat koncept mobility, který (zatím bohužel není) obsažen v IPv6. Silné stránky a možnosti Pokud jde o silné stránky a možnosti využití této technologie, pak lze hovořit o téměř nepřeberném množství aplikací. Dnes se běžně užívají systémy rozšířené reality u vojenských stíhačů, kteří vidí informace o výšce, nepřátelském letadle a řadu dalších přímo na čelním skle. Díky tomu mají nejen lepší orientaci v prostoru, ale také během bitevní operace nemusejí sledovat přístrojovou desku. Zvláště u složitějších manévrů může jít o zlomky sekundy, které rozhodují o bytí a nebytí pilota. Velké možnosti skrývá také koncept Google Glass116 (a jemu podobné117 ) pro dělníky na stavbách. Lze si zapnout příslušnou virtuální vrstvu a lidé vědí, kde bude zeď, kudy vést elektrické vedení či odpady. To může na první pohled působit zbytečně – stavby se staví kvalitně i bez těchto technologií – v případě oprav jde však o klíčovou věc, neboť není třeba hledat přesné místo vedení či větvení infrastruktury, ale příslušný opravář ji hned vidí a přesně ví, kam se má podívat. Také pro zadavatele stavby může být tato technika velice užitečná, protože mu umožňuje získat představu o prostoru a případně měnit projekt či provádět drobné stavební zásahy v dostatečném předstihu (díky rozšířené realitě snadno pozná, že někde chybí střešní okno, nebo že potřebuje příčku navíc). Mimořádně zajímavé může být využití těchto aplikací také ve vzdělávání. Studenti mohou vidět ve svých brýlích nejen model kostry, ale po pokynu učitele sledovat postupné přidávání či analýzu dalších částí lidského těla, jako je nervová soustava či svalstvo. Lze provádět jednoduché vizualizace řezů lidským tělem a řadu dalších činností, které jsou v současné době jen obtížně myslitelné. Podobně lze ukazovat reálný fyzikální experiment s tím, že do něj bude zanesena vrstva ukazující vektory síly nebo jiné významné informace. Jde tak o technologii, která má jednoznačně potenciál změnit nejen způsob vzdělávání, ale také jeho zábavnost, pochopitelnost a efektivitu. Právě školy budou možná jedním z největších konzumentů těchto aplikací, protože představují jednu z cest, jak vyvést školu a vzdělávání obecně z krize. Velké možnosti se nabízejí také v herním průmyslu. Jedna z prvních vlaštovek hra Ingress od Googlu ukazuje,118 že potenciál i zájem lidí v této oblasti je mimořádný. Princip hry je jednoduchý – vědci z CERNu objevili antihmotu a existují dvě strany, které mají k jejímu využívání odlišné postoje – jedni ji chtějí užívat ve prospěch lidstva, druzí reflektují možná rizika. Oba tábory jsou tak kladné. Navrch má vždy ta strana, která disponuje více body. Ty se získávají spojením tří portálů. Ty může člověk sám vytvořit nebo vyrobit vlastní. Musí jít přitom o památky, umělecká díla a podobné objekty. Tento příklad jen ukazuje, že hraní her lidi baví a skrývá v sobě zároveň velký potenciál z hlediska monetizace. Může jít o placení provozoven a míst za to, že budou v mapě umístěna nebo budou mít nějakou specifickou funkci nebo se jen využije lidský potenciál a společnost získá fotografie památek, které by jinak musela kupovat. Nemenší možnosti jsou také ukryty ve spojení sociálních sítí a rozšířené reality. Již dnes probíhají první pokusy, které ukazují, jak by to mohlo fungovat. Stačí se pomocí brýlí či telefonu podívat na 116 Google Glass. Google. 117 Například INNOVEGA INC. Innovega. 118 Ingress. Ingress. 69 nějakou osobu a nejen že ji identifikujeme, ale můžeme se podívat na její profily v sociálních sítích, zjistit jakou hudbu ráda poslouchá nebo co čte za knihy. Tyto aplikace tak možná zásadním způsobem mohou změnit to, jak s druhými komunikujeme a podle čeho si vybíráme partnery k diskusi. Lze si například představit, že na vědecké konferenci budeme chtít vyfiltrovat lidi, kteří mají stejný obor zájmu jako my – a ani o něm třeba nemusí mluvit – stačí se podívat a hned je máme identifikované. Koncept rozšířené reality postupně nahrazuje některé klasické postupy práce s informacemi. Například informace o památce již nemusíme hledat v patřičném průvodci, ale systém sám by měl budovu či sochu rozpoznat a poskytnout o ní informace. Samozřejmostí je dnes již navigace, která umožňuje snadný pohyb ve městě i bez existence nějaké papírové mapy. Podobně si lze nechat otestovat víno v obchodě, zjistit, jaké jsou na něj názory odborníků, podívat se na web výrobce atp. Slabé stránky a možné problémy Tak jako v případě jiných technologií, především pak internetu věcí, může být největší překážkou uplatnění a masového používaní této technologie ochrana soukromí. Jestliže jsme hovořili o tom, že díky augmented reality lze budovat sociální sítě, které by zobrazovaly informace o lidech kolem nás, lze říci, že ne každý bude stát o to, aby bylo na první pohled zřejmé, že fotografoval v Nepálu a poslouchá Jazz. Klasické modely socializace a rozhovorů, které jsou běžné jak při navazování důvěrných vztahů, tak také obyčejných přátelství se těmito technologiemi mohou silně měnit, což nelze považovat obecně za kladný trend. Argument, že ne každý musí o sobě tato data zveřejňovat je sice možný, ale ne zcela korektní. Pokud dojde k dostatečnému rozšíření těchto sítí, může nepřítomnost na nich znamenat určitou sociální izolovanost, společenské znevýhodnění či komunikační bariéru. Těmto technologiím se tak půjde jen velice obtížně vyhnout, pokud tedy nedojde k jejich regulaci nějakým legislativním opatřením. Dalším příbuzným problémem, především pro brýle a další podobná zařízení, může být pořizování videozáznamů. To co se běžně odehraje v době, kdy je většina návštěvníků baru již značně podnapilá a rychle upadne v zapomnění, se může stát relativně snadno materiálem, kterým lze zdiskreditovat nějakou osobu. Z tohoto důvodu již některé podniky vstup s podobnými zařízeními zakazují. Podobně lze zmínit obavy heren a kasin, kde lze pomocí nástrojů rozšířené reality například počítat karty nebo jinak podvádět. Rozšířená realita tak ještě více omezuje soukromí a bude zřejmě silně přetvářet některé vzorce chování, na které jsme zvyklí – od beztrestného pití po seznamování. Otázkou, na kterou dnes neexistuje jednoznačná odpověď, je, jaké budou mít tyto změny následky v širším kontextu na celý vývoj sociálních vazeb a společenského chování. Například z hlediska dnešní etikety je takové chování přinejmenším nepříliš vhodné. Velká část zařízení je závislá na dostupnosti mobilního internetu v dostatečné kvalitě. Jestliže se podíváme na problémy, které jsou spojené s budováním LTE sítí u nás, ale také ve světě, může také tento rozměr představovat problém. Rozšířená realita mění celkové informační chování jednotlivce a pohyb v prostředí, kde nemá k dispozici vše, na co je zvyklý, mu může činit problémy či obtíže. Tato technologie alespoň prozatím – nebude jistě korektně fungovat na celém území ČR, natož ve státech, 70 kde je pokrytí kvalitním signálem ještě slabší. Masový rozvoj této technologie tak do velké míry bude čekat na rozšíření LTE.119 Augmented reality s sebou přináší také možné bezpečnostní problémy. Jestliže ji budou lidé používat v řadě okamžiků triviálních denních potřeb, jako je hledání bankomatu, nákupního střediska nebo třeba pro získávání informací o nějaké osob, nabízí se velké lákadlo pro manipulaci s takovými daty. Běžný uživatele se tak nemusí vůbec dozvědět důvod, proč šel do obchodu B a nikoli A, když oba jsou podobně daleko, nebo proč jeho zařízení nezobrazilo zajímavou informaci o osobě, kterou právě potkal na chodníku. Tak jako v případě počítačového zpracování emocí zde narážíme na oblast, kde je řada osob mimořádně snadno zmanipulovatelná, protože se řídí tím, co je součástí světa, který běžně vidí a vnímá jako skutečný. Pokud se stanou informace tohoto druhu natolik běžné, že je lidé nebudou oddělovat od fyzického světa, je lákadlo nejrůznějších manipulací z různých důvodů mimořádně veliké. Další možné překážky je možné vidět v malé spolehlivosti konkrétních služeb, které budou snižovat vnímání celé technologie jako spolehlivé pro širokou veřejnost; nepříliš estetický vzhled celého zařízení, který nebude chtít každý nosit nebo problém koexistence s dioptrickými brýlemi. V těchto případech jde ale z velké části o problémy, které budou zřejmě jen dočasného charakteru. Aktuální projekty Projekty v oblasti rozšířené reality je možné chápat dvojím způsobem. První se věnuje samotným specializovaným zařízením a druhý konkrétním aplikacím, dnes především pro mobilní telefony. V první kategorii lze zmínit například projekt Innovega, který je financován v rámci projektu DARAPA. Využívá speciálních soustředných pásů čoček, takže zvětšuje zorný úhel a umožňuje, aby obraz vytvářený kamerou nebránil reálnému pohybu člověka v prostoru. Brýle, kterým jde zatím více o hardware, než o software, jsou určené jednak vojákům a bezpečnostním složkám, ale také široké veřejnosti. Nejznámějším projektem jsou pak Google Glass, které využívají operační systém Android a informace zobrazují na HUD obrazovce. Z oblasti aplikačních řešení jsme se již zmínili o Ingress, ale z dílny Google pochází také například Google Goggles, který umí rozeznat památky, značky, umělecká díla, vína, kontaktní údaje nebo třeba text a dále s nimi pracovat. Pro jeho korektní chod je třeba telefon s Androidem 2.1 a vyšším nebo iOS 4.0.120 Příkladem zcela jiným, který nepotřebuje velké repozitáře dat je iOnRoad,121 který slouží pro detekci kolizí automobilů a sledování provozu na silnicích. Stačí mobilní telefon vhodným způsobem umístit do držáku u čelního skla (samozřejmostí je podrobný návod) a pak jen sledovat, jak je na obrazovku promítána zelená oblast bezpečné vzdálenosti před vámi, vaše aktuální rychlost a vzdálenost od nejbližšího čelního vozidla v sekundách (tedy při současné rychlosti). Navíc je možné z jízdy vytvářet snímky a publikovat je na sociální síti. 119 PETREKA, Jiří. LTE v ČR: jedno promile na opojení nestačí. 120 Google Goggles. Google. 121 IOnRoad. IOnRoad. 71 Word Lens je aplikace, která umí rozpoznat text snímaný kamerkou a zajistit jeho překlad do jazyka uživatele a to v reálném čase a přímo ve snímku. Layar je zajímavé prostředí, které přidává k obrazu kamery další vrstvy s řadou informací, jako jsou blízké památky, kontakty ze zlatých stránek a řadu dalších.122 Podobných aplikací přitom existují desítky, často přitom využívají otevřené zdroje, různá API či nástroje třetích stran. 122 Layar. Layar. 72 Complex event processing Complex event processing představuje systém analýzy toků dat a politik pro řešení určitých situací, pro které je tento tok signifikantní. Nejčastěji jde o koncept pracující s modelem událostmi řízené sítě, které jsou určitou inteligencí zachytávány a analyzovány. Nepracuje se přitom obvykle přímo s daty, ale pouze s jejich toky, což umožňuje podstatně lepší a rychlejší reakci. Cílem takových systémů je zefektivnění rozhodovacích procesů a měly by pracovat v (téměř) reálném čase.123 Příkladů jejich využití může být celá řada. Například v případě letiště je zřejmé, že letadlo nemůže odletět dříve než devadesát minut poté, co je mu tankováno palivo. Pokud je naplánován let na dřívější hodinu, měl by systém s konceptem complex event processing nejen automaticky oznámit zpoždění, ale také ohlásit cestujícím, kdy se poletí, nabídnout například občerstvení se slevou nebo upravit celkový letový řád. To vše bez zásahu řídícího pracovníka jen na základě předem definovaného scénáře. Podobně komplexně lze řešit také další činnosti, jako obchodování na burze (dnes nejčastější užití těchto technologií), práce s nejrůznějšími preventivními opatřeními atp. Na první pohled může jít o podobný systém, jaký nabízejí business intelligence systémy. Ty ale pracují s již existujícími daty, které analyzují a snaží se nabídnout manažerovi dostatečně kvalitní podklady pro kvalifikované rozhodování. Complex event processing se rozhodují sami a spíše okrajově pracují s daty, které jsou součástí nějakých minulých zkušeností. První technologie tohoto druhu se začaly objevovat kolem přelomu milénia, ale postupně jejich význam roste. V nejbližší budoucnosti lze očekávat, že budou sloužit jako klíčové technologie pro logistiku, marketing, management a další oblasti fungování firem. Dokonce lze říci, že půjde o technologie, které mohou představovat integrální součást páteřní rozhodovací infrastruktury organizace, což může posunout roli manažerů v řadě odvětví ke zcela jiným úkolům, než na jaké byli zvyklí a připravovaní. Esper ve své online verzi slouží pro programování CEP aplikací. 123 LUCKHAM, David C. The power of events. 73 Současná technická praxe Complex event processing je sice relativně novým trendem v masovém využití, ale z hlediska svého praktického technického řešení stojí na řadě tradičních, robustních a dobře vyzkoušených technikách či technologiích. Do určité míry vychází ze zkušeností, které se učinili s business intelligence systémy. Má podobný způsob vizualizace dat, nabízí podobné přehledy, pracuje s podobným způsobem ovládání a může z něj vycházet také při rozhodovacích procesech. Je třeba zdůraznit, že zatímco většina manažerů je na určitý způsob podpory business intelligence zvyklá, u nových přístupů tomu tak být nemusí. Měly by tedy nabízet podobné rozhraní, které je již uživatelům známé. Také tvorba vzorců chování bude do velké míry často závislá na zkušenostech, které učinily s business intelligence systémy – pokud byla data X, byl postup Y při splnění podmínky Z. Tak nějak je možné uvažovat a k prvotnímu plnění Complex event processing nástrojů dochází většinou právě tímto způsobem. Rozhodně tak nelze říci, že by šlo o oddělené metody či technologie. Naopak jejich úzká kooperace je pro efektivní řízení naprosto nezbytná. Complex event processing pracují typicky pouze s toky dat, tak aby se vyhnuly analýze obrovských souborů, které se navíc dynamicky mění, což je mimořádně výpočetně náročné, takže nenabízejí skutečný hluboký pohled na situaci.124 Neslouží k tvorbě reportů nebo jako podklad pro strategické řízení společnosti. To jsou všechno úkoly, které má zajišťovat business intelligence. Naopak rychlost a dynamická možnost reakcí na změny dává prostor v oblasti jak přímého řízení některých procesů, tak v upozornění odpovědných pracovníků, že nastává určitá nepředvídaná situace či jiná okolnost, na kterou musí reagovat lidský element. Dobrá provázanost obou prostředí umožňuje efektivní modelování situací a scénářů jejich řešení tím přesněji, čím lépe má management k dispozici data i informace o jejich tocích. Jednou z důležitých funkcí bude v budoucnu snaha o heuristickou analýzu obou způsobů práce s daty, hledání souvislostí a kontextu, které umožní ještě jemnější a přesnější naladění reakcí, pokud možno v reálném čase. Druhým důležitým konceptem jsou událostmi řízené sítě. Může jít buď o fyzický nebo jen o logický koncept, který je v případě complex event processing využíván. Základní myšlenkou je, že jednotlivé celky vysílají informace jen ve chvíli, kdy dochází k nějaké události. V opačném případě se buď neozývají vůbec, nebo jen posílají data o tom, že jsou v provozu. Změnou může být jakákoli vnější událost – u senzorických sítí na hlášení požáru je to oheň, u senzorů na pohyb zvěře je to pravidelné hlášení o změně polohy atp. Událostmi řízené sítě mají několik zásadních výhod – předně je to malá režie spojená s obsluhou. Není třeba složitě řešit směrování, pravidelnou komunikaci atp. Síť je obvykle využívána relativně zřídka a zvýšený tok dat jednoznačně identifikuje nějakou událost (například že hoří). Také nároky na výkon senzorů jsou minimální, což vychází z požadavku na dlouhou výdrž na baterii. V případě logických sítí tohoto typu tento parametr odpovídá malé spotřebě systémových prostředků jako je procesor či paměť. Ve skutečnosti často nepotřebujeme znát komplexní informaci k tomu, abychom se mohli nějakým způsobem zachovat – pakliže víme, že ze senzorů v druhém patře obchodního domu přichází 124 WU, Eugene; DIAO, Yanlei; RIZVI, Shariq. High-performance complex event processing over streams. 74 hromadně data, pak tam zřejmě hoří a má se začít hasit, bez ohledu na řadu zajímavých podrobností, které bude možné analyzovat později. Což ostatně pěkně ilustruje význam celé technologie. Z hlediska praktické struktury je možné identifikovat pět základních komponent,125 které ji tvoří a které mohou být vyvíjeny jak samostatně, tak také – a to především – jako integrálně provázaný celek. Toto spojení může být na jednu stranu přínosné, na druhou stranu práce s jednotlivými komponenty dodržující obecné standardy XML struktury dat může být efektivnější – jak v lepší přístupnosti a personalizaci přání zákazníka, tak také pro integraci s další podnikovou infrastrukturou, na jejímž dobrém fungování je celý přístup zcela závislý. Korelační enginy jsou nástroje, které umožňují analyzovat obrovské toky dat a hledat v nich souvislosti a důležité scénáře. Příkladem může být analýza internetové sítě, kdy v páteřní infrastruktuře proudí desítky či stovky gigabitů za sekundu, přesto lze najít proudy, které vykazují nějaké neobvyklé vlastnosti – ať již jde o prioritní provoz nebo třeba o DoS útok. Korelační enginy tedy dokáží vytřídit taková data, která mají pro definované scénáře vliv, analyzovat je a určit, který z navržených postupů bude optimálním řešením. Druhou důležitou komponentou jsou adaptéry, které primárně slouží pro přebírání dat z nejrůznějších zdrojů, jako jsou senzorické sítě, systémová zařízení, data od vnějších poskytovatelů atp. Hotová komerční řešení obsahují velké množství již předpřipravených adaptérů, které lze snadno použít, stejně jako možnost tvorby vlastních. Mimo přebírání momentálně vznikajících dat řeší také data enrichment, tedy doplnění proudu o informace s databází a informačních systémů. Rozhodování se bude záležet na tom, jakému zákazníkovi se nepodaří poskytnout službu, s kým se právě obchoduje atp. Důležitou komponentou je prostředí pro vývoj aplikací a scénářů. Jde o jazyky, které pracují s kauzální spojitostí jednotlivých sledovaných jevů a obvykle s nimi nepracuje přímo manažer, ale nějaký IT specialista. Pomocí jazyka je jednak nutné identifikovat všechny potřebné fenomény, se kterými chceme pracovat a pak definovat jejich posloupnost pro jednotlivé scénáře. Postup tak může vypadat následovně: jestliže A a do dvaceti vteřin B a současně do třiceti vteřin ne C, tak dělej D. Lze budovat obecně velice složité konstrukce, které by umožnily co možná nejlépe definovat postupy, podle patřičných manažerských strategií. Dashboard, tedy manažerské rozhraní, které slouží pro vizualizaci výsledků v reálném čase, představuje další důležitou komponentu.126 Je velice podobné tomu, co je všeobecné známé z business intelligence a je přirozené, že se budou hledat cesty pro jejich přiměřenou integraci, ač každé z nich pracuje s jinými daty a matematickými nástroji. Manažer má ale přes existenci automatických systémů možnost do procesů sám zasahovat, což je vhodné především tehdy, když se objeví proměnná, se kterou se během modelování nepočítalo, nebo nastane nějaká nepředvídatelná situace.127 125 GREGOR, Jiří; HOLUB, Martin. Nástroje complex event processing jsou klíčem k efektivnímu rozhodování v reálném čase. 126 HEDGEBETH, Darius. Data-driven decision making for the enterprise: an overview of business intelligence applications. 127 WATSON, Hugh J., et al. Real-time business intelligence: Best practices at Continental Airlines. 75 Poslední důležitou komponentou jsou simulační nástroje, které mohou pracovat na řadě principů. Jejich obecným cílem je ověřovat výhodnost či platnost scénářů, které byly napsány a kontrolovat, zda skutečně fungují. Díky své automatizaci a nasazení v řadě náročných situací jsou complex event processing systémy mimořádně citlivé na jakoukoli chybu či nepřesnost. Často může mít i banální problém za následky ztrátu velkých finančních prostředků nebo nemusí být zřejmé, jak je výhodné se v určité situaci zachovat. Tyto nástroje jsou tak nezbytnou součástí funkčního řešení, které má zajistit fungování celého systému. Obecně je pak možné complex event processing systémy rozdělit do dvou velkých základních kategorií. První jsou výpočtově orientované, které která pracují neustále a vyhodnocují konkrétní data v pravidelném sledu. Takový systém má téměř konstantní zátěž. Příkladem takového systému může být výpočet průměrné teploty z pravidelného hlášení čidel. Druhé řešení je založené na zjišťování událostí a jejich vyhodnocování ve chvíli, kdy nastanou. Příkladem může být zjištění zpoždění letadla a následná reakce v podobě servisu pro cestující. Další dělení complex event processing systémů může být podle toho, jak moc pracují s proudy dat a s daty samotnými. V úvodu bylo naznačeno, že obecně se pracuje především s proudy, ale ve skutečnosti lze identifikovat velké množství hybridních systémů pracujících s daty v nějaké zjednodušené formě. Díky tomu se obchází problém s big daty v čase, protože se sníží objem skutečného množství informací, které musí procesor v (téměř) reálném čase spočítat. Silné stránky a možnosti První silná stránka vychází se samotného principu fungování celé technologie, protože řeší big data problém tím, že jej obchází. Místo schraňování a pozdějšího přepočítávání obrovského množství dat je možné se věnovat jen tokům a zpracovávat je v podstatě okamžitě, což zásadním způsobem snižuje požadavky na výpočetní techniku i náklady na její provoz. Obejít problém, který je v oblasti big data je vždy výhodné a v případě complex event processing systémů, které umožňují z dat vytěžit mnohé informace, jde o řešení mimořádně elegantní.128 Jde o klíčový nástroj, který může posunout rozhodovací procesy a řízení společností směrem k exaktnějším modelům, což má vliv nejen na pracovní morálku zaměstnanců, kteří chápou postupy, které jsou nějakým způsobem racionálně zdůvodněny, tak také k lepšímu přemýšlení o tom, jak by měla firma fungovat, na jakých determinantech jsou jednotlivé procesy závislé atp. Právě tato dekompozice jednotlivých procesů na determinanty, které lze relativně dobře ladit a simulovat, je mimořádně důležitá v oblasti konkurenční výhody. Především u velkých firem může představovat úspora ve výši jednotek procent obrovské finanční zdroje, které lze využívat jinde. Zde je možné vidět těsnou návaznost na lean management, který provozuje například Toyota. Pro tuto firmu je mimořádně důležité mít dokonalý přehled o tom, co se v jejich skladech i výrobních procesech děje, protože zpoždění v řádu jednotek minut má velké ekonomické dopady. Complex event processing v takovém případě představuje jednoduchou metodu, jak automaticky flexibilně měnit velikost a druh objednávek, přemísťovat lidské zdroje nebo provádět další opatření, která by umožnila, aby firma mohla s tímto způsobem řízení pracovat dále. Dobře nastavený systém bude mít vždy lepší a rychlejší informace i reakce, nežli manažer, který nad výrobou dlí. 128 LUCKHAM, David C.; FRASCA, Brian. Complex event processing in distributed systems. 76 Také z hlediska inovací je complex event processing mimořádně výhodným nástrojem. Total Quality Management (TQM) stojí na myšlence neustálého postupného inovování všech procesů ve firmě. Díky simulačním nástrojům lze relativně snadno hledat nejrůznější optima, která pak budou zanášena do inovačního procesu. Zatímco dříve byla řada zásahů otázkou instinktu nebo jen testem manažera, dnes jde o numerické řešení diferenciálních rovnic, což vede obvykle k jednoznačným výsledkům a podkladům pro manažerská rozhodnutí. Klíčový z hlediska celé technologie je ale především určitý bezpečnostní či krizový management, který má pomáhat organizovat. Jak se zachovat k pasažérům první třídy, když má jejich let zpoždění? Jak efektivně komunikovat s dodavateli? Co dělat, když začne hořet? To jsou jen některé scénáře, které je možné namodelovat, odzkoušet a nasadit do praxe. Rychlá reakce je vždy důležitá a díky automatickým systémům jen málo závislá na lidském stresu či chybách. Díky těmto prostředkům lze snadno překonávat nejrůznější krizové scénáře. Ostatně často jen to, že implementace complex event processing nutí manažery o těchto věcech přemýšlet, může firmu silně posunout kupředu. Je ale možné opustit vytvořené a zajeté koleje podobných konzervativních strategií a podívat se na možnosti poněkud kreativnější. První, o které se hodně hovoří, je real time marketing. Podle počasí, chování lidí, pohybových vzorců lze automaticky měnit reklamní kampaň tak, aby byla maximálně účinná – pokud prší, lze na obrazovkách nabízet možnost schovat se v kavárně, která se hned dozví o tom, že má nachystat prostor na osušení deštníků. S lidmi nudícími se ve vestibulu nádraží, kteří čekají na vlak, lze také pracovat specifickým způsobem. Podobně se mohou tyto postupy prosazovat v dopravě, kdy lze identifikovat prioritní tahy, kterým budeme díky semaforům dávat přednost před jinými, v závislosti na dopravní obslužnosti, nebo lze rychle a jednoduše navrhovat objízdné trasy. Vždy záleží na vhodně zvolené strategii a komplexnosti, které pro systém zvolíme.129 Možností je ale samozřejmě více – velkou oblastí mohou být medicínská zařízení, které budou před příchodem lékaře zachraňovat pacienta vhodnými dávkami léků či úpravou chodu přístrojů nebo i relativně triviální výrobní procesy. Complex event processing je fenomén, který se postupně prosadí všude a v oblasti možnosti jeho využití se kreativitě rozhodně meze nekladou. Slabé stránky a možné problémy Celý systém ale může mít – a v reálných situacích obvykle také má, několik slabých míst. Tím prvním může být oslabení osoby manažera. To může být sice člověk, který se rozhoduje na základě racionálních informací, ale také vizionář, hazardér, inovátor. Člověk, který se chová nekonvenčně a dokáže strhnout ostatní, i pře porušení všech manažerských příruček a zásad. Těžko si lze představit, že by společnosti jako Apple, která stála na Jobsovi, Google s Brintem či firmy Sorose a dalších, mohly mít úspěch, kdyby se opíraly jen o complex event processing. Potlačení génia ducha vůdce a snaha o hledání průměrného úspěchu je jedním z úskalí, na které může implementace těchto systémů narazit. S tím souvisí také změna sociální struktury organizací, kdy se na vedoucí pozici objevuje automatizovaný proces místo člověka, kterému je možné věřit, jakožto osobě. Řada manažerů se 129 VU, V.-T., et al. Audio-video event recognition system for public transport security. 77 může na různých pozicích dostávat do sporu s tím, co chtějí oni a co po nich vyžaduje softwarové řešení. Zatímco většina manažerů neudělá úplně špatné rozhodnutí, v případě špatně či málo nasimulovaných jevů je riziko chyb velké. Často není dostatek času na testování a výsledky automatických rozhodovacích procesů pak mohou být velice špatné. Zvláště u dynamicky se rozvíjejících společností, nebo skutečně složitých produktů lze často jen obtížně dobře definovat všechny faktory, které je třeba sledovat a vyhodnocovat. Zanedbání některého z nich může během simulace zůstat nepovšimnuté (prostě se nezvažuje), avšak přitom mít fatální dopad na to, jak celá firma funguje. Škody takto špatně nastavených procesů mohou být enormní a často chybí možnost rychlého zásahu člověka. Velká část manažerů není na práci s complex event processing vůbec připravena. O jednotlivých procesech, akcích a strategiích přemýšlí v kategoriích, které lze těžko zapsat do exaktních scénářů a formálních jazyků. Často přitom nejde o neúspěšné či špatně pracující osoby. Zavedení takové technologie „násilím“ opět může mít nedobrý dopad na fungování celé organizace. Druhou významnou nepřipraveností je pak tradičně malá znalost formálních jazyků a ICT obecně, ale také matematiky, což může představovat další problémy. Pokud jde o neznalost formálních jazyků a informační techniky, pak se zpravidla zavádí mezi manažera a systém samotný ICT odborník, který by měl vše, dle požadavků vedoucího pracovníka nastavit. Jde o legitimní řešení, ale pokud manažer nerozumí možnostem systému a jeho síle či míře abstrakce, může jen těžko plně využívat jeho možnosti a pracovat s ním správně a efektivně. Může se tak stát, že nákladně budovaný systém je užíván jen zcela okrajově nebo zcela povrchně, protože manažer není schopen dobře definovat všechny potřebné parametry systému. Na to pak navazují problémy, které jsou umocněné neznalostí matematiky, v oblasti rozhodovacích procesů při práci s dashboardem, kdy může špatná interpretace dat či grafů, nebo jen neznalost toho, z čeho vycházejí a jak jsou konstruovány, vést k nedobrým manažerským rozhodnutím. Je tedy nezbytné nejen vybudovat a dobře nastavit celý systém automatického řízení na základě událostí, ale také pečlivě vybírat manažery, provádět školení atp. Dalším možným problémem může být to, že systému se nemusí dostávat dobrých a spolehlivých informací. Může se stát, že ani sebelépe vytvořený model nebude v praxi fungovat, protože nebude mít k dispozici dostatečné množství dat, se kterými by mohl efektivně pracovat. To implikuje rozdíl mezi formální správností a praktickým fungováním, který může být propastný. Může jít o další část zavádění modelu, která může být podceňována. V neposlední řadě je zde pak otázka finančních nákladů. Ty souvisí jak s budováním infrastruktury v podobě kamer, čidel, sítí či počítačů, tak také s náklady na implementaci a další údržbu. Je třeba uvážit, zda pro danou organizaci mohou být takto robustní a komplexní systémy přínosné, nebo zda naopak budou představovat trvalou finanční zátěž, která bude firmě na obtíž. Aktuální projekty Zřejmě nejznámějším příkladem dnes užívaných complex event processing systémů jsou burzy cenných papírů a komodit. Ty dříve pracovaly na relativně triviálním principu – pokud je k dispozici určité množství cenných papírů za danou (nebo nižší) cenu, automaticky jsou koupeny. Takto jsou pak 78 uspokojovány požadavky všech, kteří makléře o nákup požádají. Mohou se ale objevit zajímavé chyby – například systém kupuje akcie po jedné. Za každou ale zaplatí poplatek burze (ten je konstantní za obchod, bez ohledu na to, zda je akcií sto nebo jediná), čímž výrazně zvýší cenu jednotkové akcie pro koncového majitele. Dnešní systémy jsou obvykle mnohem komplexnější – umí analyzovat nálady na burze, pracovat s doporučeními analytiků nebo sledovat zprávy a konkrétních titulech. Požadavek kupujícího může být irelevantní, pokud nastane nějaká nenadálá událost.130 Pokud jde o optimalizace firemních procesů, již byl zmíněn příklad Hamburského přístaviště. Zde funguje průběžné monitorování výkladu lodí, přidělování skladovacích prostor nebo automatická navigace plavidel v docích tak, aby se minimalizovalo čekání a zlepšoval výkon celého komplexu firem a přidružených aktivit. Pro vývojáře i koncové uživatele může být zajímavý také engine Esper, což je open source komplexní prostředí pro complex event processing. Disponuje předpřipravenými sadami nástrojů pro senzorické sítě (RFID, plánované komunikace se senzory atp.131 ), finanční transakce, monitorování sítí nebo práce s Business process management a jeho automatizací. Tento engine je relativně dobře udělaný a díky bohaté nabídce vestavěných funkcí se dobře hodí pro nejrůznější úpravy a rozšíření, případně dokonalé přizpůsobení potřebám jednotlivých koncových zákazníků. Již dnes jsou ale základní nástroje pro práci s touto technologií formou nejrůznějších modulů a rozšíření dostupné také pro běžná vývojová prostředí, jako je NetBeans, což je pro vývojáře a programátory velice příjemnou pomocí. 132 130 Srov. LUNDBERG, Alan. Leverage complex event processing to improve operational performance. nebo ECKERT, Michael. Complex event processing with XChange EQ: language design, formal semantics, and incremental evaluation for querying events. 131 Více o těchto technologiích v kapitole věnované internetu věcí. 132 Srov. KARPÍŠEK, Jiří. Praktický úvod do Complex Event Processing. 79 Bring your own device (BYOD) BYOD (z anglického "Bring Your Own Device") je jedním z nejvýznamnějších trendů, které budou ovlivňovat IT prostředí ve firmách v nejbližších letech. Základní myšlenkou je, že si zaměstnanci nosí do práce svá vlastní chytrá zařízení, jako jsou tablety, mobilní telefony či notebooky, která následně používají k výkonu své pracovní činnosti. Velkou výhodou tohoto konceptu je skutečnost, že lidé mohou pracovat v prostředí, které je jim známé, je nastavené podle jejich potřeb a dokonale jim vyhovuje. Na druhou stranu je naopak nutné posílit transparentnost firemních sítí, zajistit mobile device management (MDM) nebo uvážit bezpečnostní rizika. Podle všeho je BYOD velice užitečným trendem, který posiluje efektivitu. Podle Jiřího Deváta z Cisco ČR „data z USA ukazují, že ekonomický přínos konceptu BYOD se pohybuje v řádu minimálně stovek dolarů na každého zaměstnance za rok – a to je částka, která ve firmách s desítkami či stovkami lidí hraje roli.“133 To co bylo ještě před několika lety (celý fenomén BYOD se formálně začíná více řešit až v roce 2011, i když třeba Cicso má svůj nástroj na jeho podporu od roku 2009) bylo vnímáno jako nemyslitelné či hrubé porušení pracovních povinností, se dnes stává stále více běžnou součástí pracovního nasazení. Z hlediska nových technologických výzev je klíčové, aby se společnosti naučily pracovat s MDM a aby jejich infrastruktura podobná zařízení vnímala jako běžnou součást počítačové sítě. Druhou významnou výzvou bude zajištění bezpečnosti, která se ve velkém množství zařízení zajišťuje relativně obtížně. Jde o trend, který má úzkou návaznost na vývoj operačních systémů nebo virtualizaci a cloudové služby, které umožňují podobné sítě budovat relativně snadno a zároveň rychleji. Důležitá je také správa licencí, což může být u zařízení, která mají zaměstnanci relativně problematické (například není možné na zařízení v režimu BYOD provozovat většinu bezplatných antivirových programů, protože jde o komerční využití). Mimo obvyklého nošení zařízení se lze setkat také s dalšími souvisejícími trendy, jako je BYOS, která spočívá v přenášení služby či aplikace, kterou uživatel používá doma, do pracovního prostředí. Příkladem může být vlastní mail či e-mailový klient, nástroje na time management nebo online nástroje na synchronizaci zařízení, jako je Dropbox či Box.net. 133 LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku. 80 BYOD Smart Solution od Cicso v různých možnostech nasazení.134 Soudobá technická praxe BYOD již není dávno konceptem čistě teoretickým nebo trendovým, ale skutečností, která již definuje celý trh a vývoj firemních počítačových sítí na všech úrovních. Přibližně 30 % IT profesionálů jej považuje za trend s největším vlivem na firemní IT v příštích 3 letech. Podle stejného průzkumu CISCO z dubna 2013 přes 50 % respondentů již služeb BYOD běžně využívá a svá soukromá zařízení si nosí do práce sami. Meziročně se důvěra v tento trend zvýšila dvojnásobně a i nadále roste.135 Je tak vidět, jeho význam i v českých podnicích stále stoupá. 27 % firem však nemá vůbec vyřešený systém zabezpečení BYOD sítí, jen dvě třetiny firem mají definovaná pravidla používání vlastních zařízení, což je překvapivě málo.136 Je přitom třeba si uvědomit, že BYOD mají úzký vztah k pracovnímu právu, hygieně i licenční politice. V tomto kontextu nemusí být nošení vlastních zařízení do firem jen záležitostí interní situace uvnitř organisace, ale může představovat také problémy v oblasti legislativy. Proto je třeba věnovat nastavení těchto pravidel náležitou pozornost. Umožňují také předejít řadě možným konfliktním situacím, které mohou nastat při anarchistickém používání. Z hlediska samotné struktury zabezpečení fungování sítí je možné hovořit o čtyřech základních vrstvách, které by měl mít každý systém BYOD pokryté.137 Často přitom nejde o obecný problém 134 BYOD Smart Solution: Implementation. Cicso. 135 LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku. 136 Tamtéž. 137 MCLELLAN, Charles. Consumerization, BYOD and MDM: What you need to know. 81 optimalizace, ale o nastavení toho, co je pro danou organisaci z různých důvodů nejlepší, v závislosti na konkrétních zaměstnancích a jejich zařízeních. Jiné problémy bude řešit firma, ve které pracují grafici, kteří nosí do práce jen výrobky od Apple a technologické firmy, kde jsou mimo nich také zařízení s Androidem či Windows, mnohdy v dosti odlišných verzích. (Mobile) Device management představuje první vrstvu, která zabezpečuje samotné principiální fungování podobných sítí a to na více úrovních ISO-OSI modelu. Základní funkcionalitou je připojení zařízení do firemní sítě, ale je také třeba nabídnout možnost monitorování polohy zařízení, omezený přístup jen z určitých oblastí k určitým funkcím (například možnost tisku jen z kanceláří), stejně jako případnou deaktivaci určitých možností zařízení, pokud přistupují k firemní infrastruktuře. Je přitom nutné se vypořádat s řadou dílčích problémů, jako je rozmanitost zařízení, způsobů jejich konfigurace v sítí atp. Do této úrovně patří také základní nastavení možnosti přístupu k síťovým prostředkům, jako jsou servery či síťové disky. Na úrovni MDM by měl mít administrátor sítě možnost omezovat anebo naopak zpřístupňovat jednotlivé funkcionality konkrétním zařízením a evidovat jejich činnost, i když se zachováním soukromí. Application management představuje oblast, ze které jsou většinou největší obavy a často se řeší předpisy, což je sice varianta nejjednodušší, ale také nejméně spolehlivá. Jestliže zaměstnanci používají BYOD, je třeba, aby měl správce sítě k dispozici prostředky, které by omezovaly nainstalované aplikace, které by mohly obsahovat trojské koně a další škodlivý kód, nebo byly z jiného důvodu nebezpečné pro firemní síť a data. Jednou z možností je kontrolovat nainstalované aplikace, jinou snaha o vývoj vlastního rozhraní pro přístup k firemním sítím a zdrojům, který by umožňoval mít v daný okamžik plný přehled o prostředcích a funkcích přenosných zařízeních. Network management slouží k organisaci provozu na síti a to především z hlediska toho, k čemu je využívána. Lze v rámci něj nastavit například seznam nepřístupných stránek nebo hlídat, aby si uživatelé v práci nestahovali filmy či nehráli síťové hry. Hledají se přitom stále flexibilnější prostředky, než pouhá kombinace black či white listů. Další důležitou funkcionalitou může být zabránění v užívání zařízení, která se chovají celkově nestandardně. Tato část by měla kopírovat pravidla, která platí pro běžná zařízení ve firemní síti. Data management lze chápat také ve více úrovních. První je zabezpečení spolupráce dobrého přístupu ke všem zdrojům a datům společnosti, což je nejčastěji řešeno aplikacemi, jako je MS SharePoint a další kolaborativní nástroje. Další oblastí může být omezení možností data stahovat a tak vynášet ze společnosti. To lze zabezpečit například prostřednictvím nejrůznějších cloudových či síťových aplikacích. Velká část firem má obavu z úniku dat a právě tato vrstva by měla celý proces lépe a efektivněji zabezpečit proti – ať již chtěnému či neúmyslnému – porušení bezpečnostních pravidel. V každém případě je ale třeba vhodně vybalancovat pracovní podmínky a komfort pro zaměstnance. Na jedné straně je zde tlak na bezpečnost a restrikce, na straně druhé ale potřeba dobrého pracovního prostředí, pohodlného výkonu a prostoru pro kreativitu. Jestliže je cílem BYOD především zlepšení podmínek pro zaměstnance, které povede k vyšším pracovním výkonům, tak nastavení pravidel na všech úrovních musí být velice uvážené. 82 Pokud jde o konkrétní aplikace, existují již desítky společností, které se více méně úspěšně snaží tuto problematiku pokrýt. Mimo Cisco, které bylo jedno z prvních a nabízí zřejmě nejrobustnější služby, především co se týče MDM, lze zmínit Good Technology, SAP, Symantec, AirWatch, MobileIron, SOTI či Zenprise. V zásadě existují dvě významné skupiny řešení celé problematiky – jedna využívá instalované aplikace a druhá se snaží akcentovat cloudové řešení. Zajímavý je také prostor pro hybridní řešení, kdy je část řešena klasicky a část cloudově. Prostor je nepochybně na úrovni pokročilé správy aplikací a licencí či v hledání nových netradičních řešení, která budou mimo nezbytnou podporu BYOD řešit také celkové pracovní prostředí a workflow, pravidla chování, zálohování a další činnosti. Nebo ve vývoji mobilních aplikací, které jsou pro tyto činnosti stále ještě v plenkách. Důležité, snad více než jinde, je dbát na škálovatelnost a flexibilitu takových řešení, která by měla být navrhována především s ohledem na potřeby konkrétní skupiny zaměstnanců a organizace. Návaznost na další technologie BYOD není v žádném případě izolovaným trendem, který by se nijak nedotýkal dalších oblastí informatiky či datového businessu. Již výše jsme se několikrát zmínili o návaznosti na cloud a to jak v oblasti SaaS, tak také v IaaS. Oba koncepty přitom umožňují zajistit větší transparentnost firemní infrastruktury, odbourávají řadu technických problémů a snižují finanční náklady na realizaci funkčního a bezpečného BYOD. Platí, že čím je firma obvyklejší, tím nižší náklady jsou. Pokud organizace pracuje s přísně tajnými daty nebo s velice specializovaným softwarem a velkými daty, je vždy plné nasazení tohoto trendu problematické.138 Druhou úzce související oblastí je virtualizace, která představuje jednu z cest, jak se vyhnout velké části možných problémů. Příkladem může být VMware's Horizon Mobile, který funguje tak, že mobilní telefon skrze svého klienta jen ovládá vzdálený počítač, který mu poskytuje výpočetní výkon, prostor pro data a ostatně také bezpečnostní prvky, které se téměř nemusí řešit na straně mobilního telefonu. Jde o ideální řešení především tam, kde výkon přenosných zařízení je nižší, než jaké jsou nároky a potřeby uživatelů. Virtualizace spolu s cloudovými řešením se dnes jeví jako jedna z nejschůdnějších cest, jak zajistit skutečně funkční a robustní model BYOD počítačových sítí. Navíc se může ukázat, že možnosti, kterým se firma otevře díky těmto změnám, jsou použitelné také pro klasická zařízení. Na druhou stranu nezbavují organizace povinnosti myslet na MDM či správu sítí. S BYOD, respektive BYOS souvisí další zajímavá oblast operačních systémů. První řešení nabízí Google v rámci svého Chrome OS, kdy uživatel po přihlášení dostane přístup ke všem svým datům a aplikacím z libovolného zařízení. Nedochází tak k přenášení fyzických zařízení, ale jde o maximální cloudové řešení, které s případným využíváním v tabletech či telefonem může být spojeno, ale není to nutné. Neméně zajímavý je také koncept nového Ubuntu pro mobilní telefony,139 které by mělo umožňovat připojit zařízení k různým dokovacím stanicím a z mobilního telefonu snadno udělat SmartTV doma, pracovní počítač v práci nebo tablet na cestách. V tomto případě je představa přímého použití 138 SCARFO, Antonio. New Security Perspectives around BYOD 139 ČERNÝ, Michal. Ubuntu jde s mobilními telefony naproti firmám. 83 zařízení typu BYOD přímo integrována do návrhu operačního systému. V tomto ohledu lze předpokládat, že jej budou další pokusy následovat. Silné stránky a možnosti Již výše jsme zmínili citát z průzkumu Cisco, který ukazuje, že BYOD umožňuje společnostem uspořit nemalé finanční prostředky. Zaměstnanci v práci užívají vlastní přístroje a organizace se tak nemusí zatěžovat s jejich nákupem či opravou. Všechny náklady jsou obvykle na straně zaměstnance. Tento aspekt šetření je možné vidět především v menších firmách, pro které jsou právě položky za doplňkovou výpočetní techniku relativně významné. Ukazuje se, že jednou z největších výhod je ale spokojenost uživatelů, kteří mohou využívat zařízení, které dobře znají, vědí, kde co je a jsou zvyklí na jeho ergonomii. Asi každý, kdo velkou část pracovní doby stráví psaním, je zvyklý na jednu konkrétní klávesnici a má problém přecházet mezi více různými zařízeními. Podobně může grafik vyžadovat svůj monitor, tablet či třeba myš pro specifické nastavení nebo vlastnosti. Jde tedy v prvé řadě o otázku produktivity – pokud bude novinář psát o třicet procent rychleji na svém notebooku než na pracovním počítači, může téma zpracovat lépe nebo toho napsat více. Jestliže je produktivita vnímaná jako určitý imperativ managerských příruček, lze BYOD vnímat pozitivně, ale současně je třeba zdůraznit, že by na tento aspekt jeho fungování neměli vývojáři zapomínat. Je sice příjemné, pokud má daný nástroj skutečně pestrou paletu pokročilého nastavení a bezpečnostních politik, ale měl by celkově směřovat především ke spokojenosti a produktivitě jednotlivých zaměstnanců a jejich vzájemné spolupráci mezi sebou. Dalším důležitým prvkem je větší mobilita zaměstnanců, kteří nemusejí být tolik vázáni na svůj pracovní stůl a počítač. To umožňuje jejich rychlé přesouvání a organizování do skupin podle toho, na kterém úkolu či projektu aktuálně pracují. Není třeba žádná adaptace na nové pracovní prostředí, lze ihned začít pracovat. Dobře nastavený systém by ve firmě měl s tímto model počítat a právě rozměr aktivní spolupráce více uživatelů mezi sebou akcentovat. BYOD je tak důležitým prvkem nejen pro práci samotného zaměstnance, ale také pro podporu dynamického řízení společnosti, kdy zajišťuje rychlou a bezproblémovou změnu umístění pracovníků. Dalším významným prvkem je přání samotných zaměstnanců. Jen velice málo firem bude většinu svých kmenových zaměstnanců nutit, aby používali BYOD, ale velká část lidí se pro něj rozhoduje zcela dobrovolně a ráda. Z podpory nošení zařízení zaměstnanců se tak stává jednak nástroj pro jejich větší osobní a pracovní spokojenost, ale také nástroje konkurenční výhody vůči dalším zaměstnavatelům. Jde tedy o benefit, na který velká část zaměstnanců slyší. Řada lidí má přitom k určitému operačnímu systému či zařízení silně emotivní vztah – zkusit přesvědčit člověka, který je zvyklý na výrobky od Apple, že nový Android je lepší z hlediska firemní infrastruktury je sice možné, ale zřejmě nikdy nezajistíme spokojenost tohoto zaměstnance. Právě uživatelé výrobků s jablkem ve znaku jsou často se značkou identifikováni tak, že používání čehokoli jiného výrazně snižuje jejich spokojenost. Dalším důležitým prvkem v BYOD je stírání hranic mezi prací a volným časem. Uživatelé mají k dispozici neustále pracovní nástroj, takže se mohou věnovat home office bez technických omezení nebo pracovat o víkendech a z domu, když je to potřeba. Díky tomuto trendu a dobře připravené 84 infrastruktuře může být pracovní tempo lépe přizpůsobené potřebám konkrétní organisace v určitý čas. Neméně významnou oblastí je také uvádění nových technologií do firem, které by si je jinak nemohly dovolit. Zaměstnanci tak užívají zpravidla modernější zařízení, než jsou ta, která by jim standardně mohl poskytnout zaměstnavatel, díky čemuž jsou opět efektivnější. Místo kalendáře mohou používat například moderní GTD aplikace v tabletu, na poradách mohou rychle dohledat podrobnosti či informace atp. Tato skutečnost má také vliv na rozvoj počítačové a informační gramotnosti, což je další faktor, který není možné z pohledu sociálního a intelektuálního kapitálu společnosti zanedbat. V neposlední řadě vede často nutná úprava firemní infrastruktury k další optimalizaci již stabilních struktur, které na první pohled fungují dobře. Dochází tak k novému definování pravidel, síťové politiky nebo bezpečnostních opatření, nasazují se virtualizační nástroje nebo cloud. Díky těmto modernizacím, které budou na první pohled často vypadat jen jako investice do BYOD se může zlepšit řada procesů uvnitř organizace, což bude mít další finanční dopady. Slabé stránky a možné problémy Již jsme se zmínili o tom, že jedním z největších problémů, které jsou s BYOD spojené, jsou bezpečnostní rizika, která přitom mohou být několika druhů. První skupinou je nezabezpečený či neaktualizovaný software. Zatímco v klasických firemních sítích se dbá na užívání stabilních a podporovaných verzí aplikací, u koncových uživatelů, kteří se mohou rozhodovat zcela svobodně, jaký software využijí, tomu tak není a administrátor má jen velice málo prostředků, jak tuto situaci upravit.140 To vše vede k extrémnímu zabezpečení celé sítě na úrovni vstupních firewallů, filtrů a dalších prvků, což může její budování velice prodražit a případně mít negativní vliv na fungování celé infrastruktury, kterou mohou podobné bezpečnostní opatření značným způsobem zatížit. Dalším bezpečnostním problémem může být škodlivý kód přímo v zařízeních jednotlivých uživatelů, jako jsou trojští koně či viry. V oblasti kyberteroristické bezpečnosti se má zato, že velká část útoků masivního rozsahu využívá právě těchto prostředků, kdy pomocí BYOD či nevhodného užívání služebních zařízení dochází k infikování sítě či krádeži dat. Ty zároveň představují zajímavou oblast, které je vhodné věnovat patřičnou pozornost. Naivně definovaná pravidla (či jejich absence) bez dostatečné softwarové podpory, mohou znamenat ztrátu dat nebo jejich poskytnutí konkurenci. Ať již ztrátou či odcizením fyzického zařízení, jeho napadení škodlivým kódem nebo zcela úmyslným vynesením mimo firmu. Jde o oblast, která je z hlediska bezpečnostní politiky u BYOD často silně podceňovaná, nebo naopak vede k jejímu zákazu v různých organizacích. Opět platí, že metody ochrany proti takovým únikům existují, ale často znamenají omezení či znepříjemnění práce s daty či aplikacemi, což může vést k přesnému opaku toho, proč BYOD vlastně zavádět, totiž k poklesu efektivity. Jednou z největších obav u českých malých a středních firem je, že zaměstnanci nebudou na vlastních zařízeních pracovat, ale budou jich využívat spíše k zábavě či prokrastinaci. V situaci, kdy je v řadě zaměstnání zakázáno posílat v pracovní době SMS zprávy nebo je číst, může být představa pobytu uživatele na sociální síti či využívání instant masageru relativně problematická. Pokud začne část 140 SKÁLA, Zbyněk. Nástrahy implementace BYOD politiky. 85 zaměstnanců používat BYOD, může dojít k rozpadu zavedené firemní kultury, případně dokonce k tvorbě sociálních a výkonnostních bariér mezi zaměstnanci, podle toho, jak výkonné zařízení (a zda vůbec) si může dovolit. V takovém případě je jistě vhodné uvážit, zda má zavádění tohoto trendu pro organizaci skutečně pozitivní dopad či nikoli. Pokud chce firma pracovat s BYOD skutečně správně, je třeba se připravit na značné počáteční náklady, které budou spojené s nutnou změnou infrastruktury a nákupem patřičného softwarového vybavení, které není úplně laciné. To také může odrazovat menší společnosti, které pak budou čelit bezpečnostním hrozbám a rizikům. Problematická je také instalace specializovaných aplikací, které uživatel pro práci potřebuje. Jde-li o nákladnější software, je možné vnímat riziko zneužití podobného nástroje například pro práci pro konkurenci (typicky může jít o nástroje pro simulaci nejrůznějších materiálových vlastností konstrukcí), což může být také značně nepříjemné. Technická podpora jednotlivých uživatelů je v takto koncipovaných sítích problematická, protože závady a problémy, které se v unifikovaném prostředí obvykle opakují, jsou nahrazeny zcela novými, jejichž odstranění není často triviální a na administrátora sítě či technika kladou mnohem větší nároky na odbornost, softwarové vybavení i čas. Také správa celé heterogenní sítě se jeví v obecném pohledu jako výrazně náročnější, než v případě kdy si IT oddělení samo volí užívaný hardware, který je z různého důvodu vhodný pro práci v konkrétní síti. Aktuální projekty BYOD je aktuální trend a tak se nelze divit, že existuje již celá řada hotových řešení. BYOD Smart Solution od Cisco je jedním z nejstarších a nejrobustnějších řešení, které obsahuje správu přístupových bodů, zabezpečení, Network management a řadu dalších dílčích komponent. 141 Produkt je přitom škálován tak, aby vyhovoval co možná největšímu spektru uživatelů, ale silnou podporu má především u velkých společností. Microsoft nabízí Windows Intune, což je komplexní balíček, který se snaží zajistit jednotnou infrastrukturu, zabezpečení, správu zařízení a nabízí i speciální funkce pro BYOD. Jde o řešení, které je vhodné především tam, kde převažuje Windows 8 (případně RT) a uživatelé používají mimo něj jen iOS či Android. Zcela chybí například podpora Linuxu a dalších operačních systémů, včetně starších Windows.142 Citrix usiluje o nabídku cloudových řešení a virtualizace, což je výhodné především v lepší dostupnosti a nezávislosti na platformách. Problémem ale mohou být spíše méně řešené tvrdé nástroje na správu konkrétních zařízení a jejich práv nebo bezpečnostních politik. Air-watch nabízí podporu pro správu mobilních zařízení a aplikací, mobilního obsahu či bezpečnost. Opět ale nejde o nástroj na budování komplexní infrastruktury. Mezi další známá řešení patří například ta od firmy RMI (BlackBarry), Apple a některých dalších společností. Obecně je možné problematiku shrnout tak, že jednotlivá dílčí řešení existují, avšak ta robustní a klasická často ignorují moderní technologie a pohodlný přístup odkudkoli či virtualizaci, cloudové naopak přirozeně nemají dostatečně dobře udělaný management zařízení v nejnižších dvou vrstvách, 141 Cisco. BYOD Smart Solution. 142 Microsoft. Windows Intune. 86 tak jak jsme je představovali výše. Pokročilé metody na správu licencí, kontroly aktualizace či dynamického řešení workflow ale chybí a prosto pro jejich vývoj zde rozhodně je. Problémem často neřešeným je také multiplatformita.143 143 Srov. HAYES, Bob a Kathleen KOTWICA. Bring Your Own Device (BYOD) to Work: Trend Report. 87 Programování a přístup k němu Klíčovou oblastí ve vývoji aplikací je programování. Optimalizace algoritmům, přístup k problematice i samotná volba programovacího jazyka mají zásadní vliv na to, jak vypadá výsledný produkt, zda je konkurenceschopný a funkční. Vzhledem k omezenému rozsahu knihy není možné procházet všechny nadějné či zajímavé jazyky, které by se hodili pro řešení určitých dílčích problémů. Námi zvolený jazyk HTML5 je důležitý hned z několika důvodů – umožňuje integrovat desktopové, mobilní a webové aplikace a tím nejen zajistit dobrou prostupnost dat a funkcí, ale také urychlit vývoj a snížit náklady na něj. Je moderní, funkční a zajímavé z hlediska marketingu i možností, které přináší. Druhým tématem, kterému se v této části budeme věnovat je problematika open source a to hned z několika pohledů. Pro úspěšný vývoj libovolného produktu je důležité zvolit vhodné strategie pro řízení týmu, přístupu k vývoji a programování jako takovému. Myšlenka open source nestojí primárně na nulové ceně, ale právě na hledání optimálního přístupu k rychlému a funkčnímu vývoji a to jak pro tvůrce, tak také pro zákazníka. S tím souvisí také vhodná volba licence, pod kterou bude produkt šířen. Poslední dvě kapitoly tak neukazují primárně trendy samotné, ale spíše dávají nahlédnout do širších souvislostí vývoje aplikací. 88 HTML5 Současné webové stránky jsou realizované pomocí celé řady dílčích technologií. Statický web se opírá o XHTML, případně HTML 4.x, což jsou relativně etablované a dobře popsané standardy, za kterými stojí konsorcium W3C. Pokud jde o webové aplikace, můžeme se setkat především s technologickým řešením asynchronního JavaScriptu (AJAX), pro který je typické spojení XTML, kterým se popisuje vzhled spolu s CSS, na které navazuje DOM a JavaScript pro zobrazování a dynamické změny prezentovaných informací. Pro komunikaci se serverem je pak nutné užití XMLHttpRequest (typicky je užíván formát XML, ale je možné použít libovolný jiný formát včetně HTML, prostého textu, JSON či EBML).144 Mimo to se na webu silně uplatňuje Flash pro tvorbu aplikací, dynamické stránky využívají PHP či JAVA. V tomto kontextu je jasné, že web by potřeboval silný etablovaný jazyk, který by uměl na jedné straně dobře nahradit XTML a AJAX a současně přinesl oddělení formy od obsahu, což je klíčové z hlediska dolování dat, podpory nevidomých a slabozrakých uživatelů, ale také obecně pro jakékoliv strojové zpracování. HTML5 vznikl jako značkovací jazyk, který má ambice nahradit XTML a Flash. Umožňuje programování prvků na webových stránkách, nabízí podporu multimédií nebo lepší práci s formuláři. Na druhou stranu ani HTML5 si nevystačí samo. Pro plné využití jeho funkcí je nutné využít CSS3, které definuje přesný vzhled jednotlivých objektů (nadpisů, odkazů, tabulek,…) a jsou zde také problémy se stále nehotovou specifikací nebo výpočetním výkonem. HTML5 představuje otevřený standard, který může zásadním způsobem změnit nejen to, jak dnešní web vypadá, ale také nabídnout integraci online a offline aplikací do jednoho celku. Právě podpora offline běhu patří mezi další důležité prvky, které jsou s HTML5 spojovány. Důraz na logickou strukturu dokumentu i nové tagy (především canvas) nabízejí tvůrcům nové možnosti rozvoje webu, který nebude závislý na proprietárních formátech, bude dobře podporovat mobilní zařízení a nebude s ním problém na konkrétních platformách. Jeho stále narůstající obliba svědčí o tom, že jde o technologii s velkou perspektivou. 144 HOLZNER, Steve. Ajax For Dummies. 89 Současná míra implementace nových vlastností HTML 5.145 Soudobá technická praxe Když se poprvé v roce 1990 objevila první specifikace jazyka HTML,146 bylo to pro mnohé velmi kontroverzní. Základní myšlenkou bylo zjednodušit popis dokumentu, k čemuž se používal TeX či LaTeX takovou formou, která by byla přístupná pro webové prohlížeče a mohla dobře spolupracovat s protokolem HTTP. Východiskem byla přitom zjednodušená specifikace jazyka SGML. První oficiální vydání bylo v roce 1991 (verze 0.9) a tato verze jazyka nepodporovala grafický režim. Velice rychle se ale ukázalo, že web (či hypertext) se bude rozvíjet mnohem rychleji, než se původně očekávalo. Postupně tak docházelo k úpravám jednotlivých verzí tak, aby bylo možné uspokojit potřeby vývojářů. Současně ale začala vznikat poptávka po tom, aby dokumenty byly nikoli jen statické, ale aby bylo možné stránku dynamicky měnit na základě požadavků uživatele. Tuto potřebu reflektoval jazyk PHP. Mimo to se začaly objevovat postupně další technologie, které se snažily omezení HTML doplnit – Java Script umožňoval animaci prvků na stránkách, postupně nastoupil Flash pro vývoj webových aplikací atp. Původní myšlenka, že bude existovat jeden formát, který by popisoval vzhled a chování stránek, se značně vzdálila od reality – dnešní prohlížeče potřebují podporu Flash, Java Script, Java a řada dalších formátů, aby dokázaly uspokojit nároky uživatelů, kteří chtějí nakupovat v elektronických obchodech, platit kartou, hrát hry nebo online sledovat video. V posledních letech se objevilo několik technologií, které se tento problém snaží řešit. 145 HTML5. Wikipedia. 146 BERNERS LEE, Tim a CONNOLLY, Daniel. Hypertext Markup Language (HTML) 90 Velkým problémem je především užívání Flash, který není na zařízeních Apple podporován a v současné době není v centru zájmu ani Linuxová verze interpreta jazyka. To znamená, že preferovaný jazyk, který umožňoval velice jednoduchou a rychlou tvorbu aplikací, je stále více zaměřen na jedinou platformu, kterou jsou Windows. To přináší nejen problémy s použitelností jazyka, ale současně se jeho vývojáři stávají zajatci jedné společnosti, na jejichž technické podpoře jsou plně závislí. Také vývoj aplikací není pod Windows vždy zcela příjemnou záležitostí. Z výše uvedených důvodů je zřejmé, proč jsou tak velká očekávání vkládána do nové specifikace HTML, která by umožnila zbavit se výše uvedené roztříštěnosti, problémů s dolováním dat atp. Musí přitom stavět již na současně užívaných technologiích. Především na XHTML, které mělo plně nahradit HTML 4.01, které vyšlo v roce 1999.147 Prvním problémem, který HTML5 řeší, je absence rozumného sémantického vyjadřování XHTML. Tomu bylo v zásadě úplně lhostejné, jakou část stránky popisuje – vždy se užil tag div a to bez ohledu na to, zda ohraničoval grafický prvek, info box, článek či odstavec. To je problematické pokud mají vyhledávače textu rozumět nebo pokud jej potřebují nějakým dalším způsobem zpracovat. Také nevidomým uživatelům by pomohlo, kdyby si mohli přečíst článek odděleně od okolních informací. Proto přináší HTLM 5 následující nové tagy, které se vztahují ke struktuře dokumentu:148  header - reprezentuje hlavičku stránky  nav - reprezentuje část stránky, která je určena k navigaci, nejčastěji menu  article - reprezentuje delší textové části, jako jsou články, komentáře atp.  section - reprezentuje různé části stránek, např. kapitoly  aside - reprezentuje boční panel stránky  footer - reprezentuje patičku stránky Pomocí těchto tagů (nikoli atributů) je možné stránku logicky rozčlenit. V tomto kontextu je dobré se zmínit, že se paradoxně vrací k zásadám známých z TeX. Další zajímavostí je možnost spojit text s obrázkem či videem do jednoho logického celku. Doposud bylo možné umístit popisek jen v atributu alt, který představoval alternativní popisek v případě, že se obrázek nezobrazí správně. To že jej prohlížeče aplikovali různě, je druhá věc. Nový tag figure umožňuje spojit obě zmíněné, logicky související, informace do jednoho celku. Opět jde o velký krok směrem k logické struktuře i strojovému zpracování webových stránek. Další zásadní změny se týkají dialogů. Především na zpravodajských webech jde o relativně častou činnost a tak se jí autoři specifikace rozhodli dát vlastní značku – dialog. Pomocí něj je možné velmi snadno formátovat rozhovor. Opět je v pozadí podpora dialogových systémů a strojového zpracování. Jde o zcela zásadní změnu, která umožňuje různým algoritmům strojově analyzovat obsah, získávat z něj informace a flexibilně jej přizpůsobovat požadavkům konkrétního uživatele. Člověk si tak může přečíst pouze rozhovor v novinách a klepnutím na funkční klávesu se ocitne v navigaci či na jiném rozumném místě. Tyto tagy zatím nejsou hojně využívané a lze říci, že jde o oblast, která se může velice intenzivně rozvíjet. 147 W3C. HTML 4.01 Specification. 148 SMOLA, Martin. Seriál HTML5 a jeho zajímavé vlastnosti. 91 Stejně jako XHTML, také HTML5 obsahuje DOM, tedy logickou, stromovou strukturu (to umělo již XHTML). Oproti svému předchůdci se může dobře opírat především o nově zavedené značky section (ale i jiné). Cílem celého návrhu je snadná orientace uživatele i automatizace ve zpracovávání informací.149 Jednoznačně mediálně nejznámější jsou možnosti v oblasti multimédií, které HTML5 přináší. Jde o tři tagy audio, video a canvas, na které se podíváme podrobněji. Pokud chtěl někdo v klasickém (X)HTML vložit na web video, měl smůlu. Jedinou možností bylo využití Flash přehrávače a to ještě většinou tak, že se data streemovala z nějakého vzdáleného serveru (např. YouTube). To mělo několik zásadních nevýhod. Uživatel musel mít Flash nainstalovaný, přehrávače byly bezpečnostně problematické. Implementace samotného přehrávače byla relativně obtížná a tak velká část lidí nahrála video na YouTube a na své stránky umístila jen přehrávač. Zobrazovaná reklama a odkazy na další videa šli do kapsy Google (či jiné příslušné firmě) a uživatel neměl možnost je nijak ovlivňovat. Díky novým tagům video a audio je vložení videa či audia na web záležitostí jedno řádku: 150 Asi nejzajímavějším tagem z této kategorie je ale canvas. Jde o tvorbu plátna, na které je možné v rámci prohlížeče kreslit. Je tak možné vložit například interaktivní graf, měnící se obrázek, ovládací prvek k videu a mnoho dalšího. Mimo jiné je možné díky tomuto prvku aktivně vyvíjet aplikace plně v HTML5. Jde o přímou náhradu Flash. Velkých změn a vylepšení se dočkaly také formuláře. Zatímco (X)HTLM nabízí jen základní spektrum nástrojů, HTML5 je silně rozšiřuje. Původně nebylo možné provádět žádnou kontrolu údajů nebo omezit vkládaná data. Jedinou možností bylo užít Java Scriptu či PHP. Díky nově zavedeným atributům to ale již nebude nutné. Velice užitečnou funkcí, která umožňuje efektivní tvorbu webových aplikací je podpora offline módu. Prohlížeč si umí vytvořit během připojení na počítači soubory, kterých umí využívat v případě, že uživatel není aktuálně připojený k internetu. 151 Mezi další novinky patří perzistentní úložiště formou asociativního pole či podpora relačních databází. Ač jde o novinky, které jsou pro studenty možná nepříliš průhledné, jsou velmi důležité pro vývoj aplikací. Je také třeba podotknout, že HTML5 přímo předpokládá spolupráci s CSS3. Silné stránky a možnosti Z výše uvedeného jsou již možnosti HTML5 relativně dobře nastíněné. Na tomto místě se tedy pokusíme některé nastíněné výhody vytáhnout a popsat trochu blíže, tak aby bylo jasné, jaké možnosti nabízí jednotlivé nové vlastnosti tohoto značkovacího jazyka. 149 BEHR, Johannes, et al. A scalable architecture for the HTML5/X3D integration model X3DOM. 150 Práce se zvukovými soubory pomocí tagu audio funguje úplně stejně. Zajímavou vlastností v tomto kontextu je podpora alternativních formátů videa či audia. Autor webu může nabídnout prohlížeči video ve více formátech a ten automaticky přehraje ten první, se kterým umí pracovat. Další zajímavostí je podpora obrázku na titulní stránku videa. 151 LUBBERS, Peter; ALBERS, Brian; SALIM, Frank. Creating HTML5 Offline Web Applications. 92 První oblastí, která se již dnes začíná relativně intenzivně rýsovat, je podpora offline aplikací, které budou napsané pomocí HTML5. Například Ubuntu 12.10 nabízí funkci, která umožňuje služby, které jsou vytvořené v tomto jazyce nastavit jako běžné aplikace, takže je lze spustit z programové nabídky. Také z hlediska uživatelského komfortu se jasně rýsují zajímavé možnosti. Příkladem může být aplikace pro Gmail, kterou vytvořil Google. Pokud není uživatel připojen k síti, zobrazí se mu e-maily za posledních třicet dní, může na ně v klidu odpovědět, třídit je atp. Všechny změny se uloží lokálně a v okamžiku připojení se provede synchronizace. To umožňuje, aby s online aplikacemi uživatel pracoval i bez připojení. Implementace není zatím úplně jednoduchá, ale první pokusy již jsou a fungují dobře. Druhou výraznou vlastností je oddělení logické struktury a vzhledu. Díky této vlastnosti lze webové stránky, ale také další aplikace vyvíjet mnohem flexibilněji než doposud. Jednotlivá zařízení lze zohlednit až na úrovni CSS3,152 tedy jednoznačné specifikace vzhledu. To umožňuje velice efektivně navrhovat weby pro různá zařízení, která se od sebe liší velikostí obrazovky nebo způsobem ovládání. Řada řešení, která se dnes dělají pomocí speciálních aplikací pro operační systémy, bude moci být řešena právě touto cestou. Oddělení logické struktury má ale také velký význam pro strojové zpracování dat. Díky možnosti snadno identifikovat vlastní obsah, procházet oblasti s logickou návazností získává programátor zcela nové možnosti, o kterých se mu v XHTML ani nesnilo. Ač se osobně domnívám, že koncept sémantického webu je v zásadě mrtvý, protože práce s RDF je pro tvůrce příliš pracná a nerentabilní, HTML5 umožňuje části tohoto návrhu webu znalostí využít. Velký význam mají tyto funkce také pro osoby s hendikepem nebo jinými specifickými potřebami. Díky logické struktuře jim prohlížeč či čtecí zařízení může nabídnout skutečně jen obsah a nebude je obtěžovat s čtením prvků, které jsou zajímavé pro SEO či navigaci, ale nemají vlastní informační hodnotu. Druhou revolucí, která nás díky tomu čeká je změna vyhledávání a SEO. Zatímco dnes je názor Marka Prokopa, že SEO je nesmysl a máme dělat optimalizaci pro uživatele, vnímán jako relativně radikální, ve světle HTML5 dává zcela určitě smysl. Zcela zásadní změnou pro návrh aplikací je a bude tag canvas, který lze vnímat jako plátno, na které může návrhář psát či kreslit. Prakticky lze pomocí něj navrhovat aplikace a jejich vzhled nebo realizovat počítačové hry. Jejich rozšíření pak jistě budou nahrávat nové progresivní grafické formáty.153 Herní průmysl je vždy tahounem rozvoje počítačových technologií a první vlaštovky lze vidět již dnes. Pokud vytvoříme aktivní herní prostředí přímo v okně prohlížeče, bude to představovat cestu, jak podstatně zvýšit okruh hráčů. Samozřejmě s přihlédnutím k tomu, že půjde o aplikace náročnější nežli Farm Ville a další Facobokové či flashové hry. To samozřejmě otevírá prostor nejen pro herní vývojáře, ale pro celý obchod okolo počítačových her, které budou provozovány v běžném prohlížeči. Od distribučních kanálů, přes marketing, pluginy na podporu hraní a komunikaci mezi hráči až po platební prostředí. Pokud nevzniknou silné monopoly či oligopoly lze očekávat, že se zde objeví zcela nová oblast pro start-upovou ekonomiku. 152 SIKOS, Leslie. Web standards: mastering HTML5, CSS3, and XML. 153 WILLIAMS, James L. Learning HTML5 game programming: a hands-on guide to building online games using Canvas, SVG, and WebGL. 93 Velkou výzvu je pak možné vidět také ve spojení HTML5 a IPv6 na úrovni bezpečnosti, rychlosti a především zajištění kvality služeb (QoS). Zatímco HTML5 integrálně pracuje s multimédii, IPv6 automaticky zajišťuje bezpečnost datového přenosu a možnost směrování na základě přenášeného obsahu. Potenciál ve streamování videopřenosů, jednoduchou videkonfernci atp. je evidentní. Díky těmto vlastnostem lze říci, že multimédia mohou zaznamenat novou renesanci a rozvoj v oblastech, kde jejich použití bylo z různých důvodů doposud velice problematické. Slabé stránky a možné problémy Z toho co jsme doposud uvedli, se může zdát, že HTML5 je zcela bezproblémovou technologií se světlou budoucností. Zde je dobré připomenout, že ani velice propracované standardy, které vyšly z dílny W3C se neujali a neprosadily. Naopak současný web je často nevalidní a více než na standardy se hledí na optimalizaci pro prohlížeče a vyhledávače. Pokud HTML5 nebude preferována vyhledávači na úkor XHTML, bude velice složité kódery a programátory do této technologie dotlačit. HTML5 totiž stále není definitivním a hotovým produktem. Existuje celá řada experimentálních funkcí, které jsou do něj neustále dodávány, takže není zcela jasné, jak přesně správné tento značkovací jazyk vypadá. Jednotlivé prohlížeče si jej tak interpretují po svém a každý akcentuje jinou skupinu funkcí. Internet Explorer je tradičně velice konzervativní, což má za následek jen pozvolné přebírání jednotlivých funkcí. Mozilla se snaží ve Firefoxu podporovat všechny relativně stabilní funkce a vlastnosti a třeba Google v Chrome zcela přirozeně akcentuje především tu funkcionalitu, kterou využívají jeho aplikace. Tvůrce se tak dostává do složité situace hned několikanásobně. Díky tomu, že všechny výpočty HTML5 provádí prohlížeč, je třeba, aby se mohl spolehnout na spektrum funkcí, které budou uživatelům k dispozici. To dnes příliš nejde. K tomu je třeba připočíst postupný vývoj a připojování stále nových standardů, vlastností a prvků. Všechny konzervační pokusy jsou zatím více méně neúspěšné. Z hlediska mobilních zařízení není optimální ani rozložení výkonu. Zatímco u AJAX za vše zodpovídá server, který může být snadno škálovatelný a výkonný, který vývojář dokonale zná a může ovlivňovat, u koncových zařízení tomu tak není. HTML5 aplikace jsou stále pro mobilní telefony často velice náročné, takže se dává přednost těm nativním. Tam, kde mělo HTML5 přinést dobrou rozšiřitelnost, táhne s sebou problémy s výkonem a nároky. Vývojář také nemůže odhadnout, které algoritmy jsou v daném prohlížeči rychlé a které nikoli. Jednotlivá výpočetní jádra se často liší právě tím, že obsahují různé mechanismy, které urychlují některé algoritmy či funkce. A to je něco, co nelze předpovědět a dopředu vhodně rozhodnout. Úplně pomalá aplikace se tak při změně prohlížeče může stát rychlou a efektivnější, než její konkurence. Obecně HTML5 není právě nejrychlejší a Flash je v celé řadě případů již hotové, osvědčené a kvalitní řešení, které není vůle měnit. Náklady na vývoj nového nástroje či hry v HTML5 se tak nemusí vůbec vyplatit. Výkon je nejistý a rozdíly na straně uživatele spíše malé. Chybí také garance toho, jak se bud daná stránka přesně chovat u jednotlivého uživatele, což může přinášet problémy pro reklamu, kterou by bylo možné snadno selektovat. Je také otázkou, jak moc se 94 bude chtít autorům webů důsledně dodržovat jednotlivé značky, pracovat na provázanosti a kvalitě. Opět je to něco, co se nemusí na první pohled rychle vrátit. Právě tato funkční roztříštěnost a problematická monetizace vedou k tomu, že se aplikace v HTML5 tvoří spíše menšina firem a to zvláště těch, které spolu s ním mohou ušetřit na některých nepřímých poplatcích. Třeba těch za video formáty, díky čemuž se HTML5 stává stále více exkluzivní záležitostí, na kterou tlačí především Google a několik nadšenců. Tag canvas je také relativně nový, což znamená, že není zcela ošetřená jeho bezpečnost. Ta se neřeší ani ve formulářích, což znamená, že je třeba ji zajistit pomocí dalších nástrojů. Také ke QoS bez IPv6 není dostatek nástrojů, takže rozvoj multimédií na síti bude čekat právě na tento síťový protokol, který ale nastupuje příliš pomalu. Aktuální projekty HTML5 je v současné době již velice užívanou technologií a je možné se setkat s celou řadou webových stánek, které jsou v ní vytvořené. Asi největší možnosti jsou s jejím nasazením v oblasti aplikací a nástrojů, které mohou uživatelé interaktivně využívat. Následujících několik málo příkladů je tak třeba vnímat spíše jako ochutnávku možností, než zcela vyčerpávající výpis. YouTube patří mezi největší propagátory HTML5. Video je zajištěno video tagem a je uloženo ve dvou základních formátech H.264 a WebM. Druhý je specifický formát, který využívá Google pro mobilní přenos videa. V současnosti jde stále o testovací provoz, který si může uživatel zapnout, pokud chce, ale funguje velice pěkně a kvalitně. Zygote Body je 3D model člověka, se kterým lze plynule otáčet a nastavovat si, jaké vrstvy budou viditelné a s jakou průhledností. Studovat tak lze například, jak jsou rozmístěné cévy vzhledem ke kostře či svalům nebo cokoli dalšího. Jde o pěknou interaktivní hračku pro studenty a i učitele anatomie. Scribd nabízí plnou alternaci HTML5 a Flash, s tím, že první varianta je dle mého soudu rychlejší a výkonnější. Jde o službu, která nabízí možnost publikování dokumentů a jejich následné snadné prohlížení v okně prohlížeče (například PDF soubory). Kolem ní se již vytvořila silná komunita a tak je možné jej vnímat jako alternativu k zavedeným SlideShare či Issuu. LucidChart je robustní nástroj na tvorbu diagramů a schémat všeho druhu. Mimo široké palety předdefinovaných prvků nabízí například možnosti online spolupráce více uživatelů. Možnosti nastavené jsou relativně bohaté a patří rozhodně mezi ty nejznámější nástroje svého druhu. Flickr Browser je jednoduchým prohlížečem, který pracuje s Flickr databází fotografií, které umožňuje velice elegantně, rychle a snadno procházet. Ukazuje také cestu, kterou se možná bude řada podobných aplikací ubírat – nové GUI nad stávající množinou dat či etablovanou službou, s ohledem na specifické potřeby určité komunity. Emberwind je povedenou plošinovkou, která plně staví na HTML5. Hráč ovládá malou postavičku skřítka, který pomocí své mocné hole může vraždit nepřátele různého druhu, procházet jednotlivými levely a plnit rozmanité úkoly. To vše s plnou podporou klávesnicového ovládání a dobrým příběhem, kterému nechybí ani hudební a zvukové podkreslení. 95 Ve výčtu jednotlivých nástrojů bychom jistě mohli pokračovat ještě dlouho. Je ale zřejmé, že pro různé online nástroje, které mají fungovat multiplatformě a na více zařízeních, je HTML5 volba velice zajímavá a perspektivní, na které dnes stojí desítky velkých projektů a nepočítaně menších aplikací. 96 Open source Open source jako koncept transparentní tvorby vývoje softwaru není ničím novým. Základem je myšlenka, že by měl být kód softwaru, který je někomu nabízen či prodáván, otevřený a pochopitelný pro další editaci. To je důležité jak pro vývojáře, který může získávat cenné podněty od komunity, nové funkce či možnosti pro svůj nástroje, tak také pro společnosti, které mají možnost si daný software upravit a přizpůsobovat dle vlastních potřeb, klesá riziko ukončení vývoje určité služby hlavním vývojářem atp. Základní knihou, která popisuje výhody a specifika vývoje aplikací formou otevřeného kódu je dílo Erica S. Raymondse The Cathedral and the bazaar, které bylo publikováno již v roce 1999.154 Kniha pracuje se dvěma základními koncepty toho, jak lze vyvíjet software. První cestou jsou proprietární řešení, kdy za celým dílem stojí jasně definovaná organizace, která se snaží vytvořit co možná nejlepší produkt. Vydávány jsou verze jen stabilní, které mohou posloužit koncovým uživatelům a přinášejí něco skutečně nového. Periodicita je nižší, testování probíhá obvykle opět v nějaké jasně definované uzavřené komunitě. Oproti tomu otevřený software zpravidla vychází z myšlenky, že programátor řeší svůj problém a s velkou pravděpodobností není sám. Nabízí své řešení k obecné diskusi a doufá, že se k němu připojí další – ať již přidáním funkcí, testováním nebo třeba zcela jiným pohledem na řešený problém. Primární vývojový směr je tak vývojář vývojáři. Verze mohou přicházet velice rychle za sebou, kód testuje více lidí, obsahuje proto menší množství chyb atp. Tento princi je podobný organicky vznikajícímu tržišti. To samozřejmě nevylučuje možnost označit určité verze jako stabilní, nebo za svoji práci požadovat odměnu. Otevřený kód je záležitostí transparentnosti a komunity, nikoli primárně ceny. Z hlediska formální lze říci, že open source znamená dostupnost zdrojového kódu a splnění určitých licenčních podmínek tak, aby bylo možné s ním dále (i když třeba s určitými omezeními) manipulovat. Současně lze říci, že se celý fenomén stále více přesouvá do dalších oblastí lidského života – existují open source filmy, romány, hovoří se o otevřených datech nebo o zveřejňování vědeckých výsledků, které budou dostupné pro všechny. 154 RAYMOND, Eric. The cathedral and the bazaar. 97 Richard Stallman je zřejmě nejviditělnější osobnost Open souce komunity.155 Soudobá technická praxe Otevřená řešení se stávají stále populárnější nejen pro vývojáře, ale především také pro konzumenty těchto aplikací. V následujícím se pokusíme ukázat některé různé licenční podmínky, které se do něj promítají, stejně jako základní trendy a možnosti vývoje nebo oblasti, kde se podobná řešení efektivně uplatňují. Z hlediska licence nestačí, aby programátor dal k dispozici veškerý zdrojový kód, ale musí splňovat několik dalších podmínek. Nabyvatel licence musí být oprávněn počítačový program dále úplatně i bezúplatně distribuovat, rozšiřovat jej či rozmnožovat a současně musí mít k dispozici stejná práva ke zdrojovému kódu. Ten musí být napsán tak, aby bylo možné jej pochopit a dále upravovat. Zakázány jsou tedy techniky, které vedou k záměrné nesrozumitelnosti kódu či šíření částečně přeložených souborů, do kterých by bylo možné zasahovat jen s velkými obtížemi.156 Dalším fundamentálním požadavkem je absence diskriminačních opatření. Není tedy možné říci, že pro určitou skupinu uživatelů či formy využití je daný software otevřený a pro jiné ne. Z tohoto hlediska lze dovodit, že vývojáři nepřísluší hodnotit chování koncových uživatelů na úrovni licenčních ujednání. Další podmínky se pak týkají šíření softwaru – předně se musí licence vázat pouze na jednu aplikaci a není možné pomocí licencí vytvářet vazby mezi různými programy.157 Odvozený software musí mít 155 Richard Stallman. Wikipedia. 156 STALLMAN, Richard, et al. The GNU manifesto. 157 Například nelze říci, že kancelářský balík bude open source jen tehdy, když bude uživatel používat také konkrétní webový prohlížeč nebo si koupí určitou doplňkovou službu. 98 stejnou licenci jako ten zdrojový. Tímto je pak chráněna samotná možná existence open source řešení. Mezi nejznámější příklady konkrétních licencí patří GNU GPL, GNU LGPL, MIT license, Apache License 2.0, Eclipse Public License atp. Obecně lze říci, že jich existují desítky a liší se v různých detailech, které není vhodné brát na lehkou váhu.158 Zajímavou otázkou v tomto kontextu může být, jak lze na podobném programovém vybavení vydělat. Možností je samozřejmě více a vždy záleží na druhu vyvíjeného softwaru. První variantou, která je zřejmě nejčastější, je prodej doplňkových služeb – může jít o technickou podporu, pronájem cloudu nebo další zpoplatněné funkce, které se nacházejí mimo samotný nástroj. Lze ale také model financování založit na dobrovolném dárcovství, reklamě nebo třeba prodeji obsahu, což je dnes asi cesta nejpopulárnější. Je třeba zdůraznit, že na vývoji open source nástrojů lze vydělávat, ač častý stereotypní názor hlásá opak. Příkladem může být společnost Red Hat, která má roční obrat přes jednu miliardu dolarů, a jen za třetí čtvrtletí roku 2012 vykázala čistý zisk ve výši 38,2 milionů dolarů (asi 0,19 dolaru na akcii), což představuje 46% meziroční nárůst. Společnost vyvíjí serverový operační systém a další enterprice řešení. Častým zdrojem financování je také institucionární podpora či prostý nadšenecký pokyn, které nemají od počátku žádný ekonomický potenciál. Můžeme se setkat s modelem konzultační tvorby, kdy pro jednu nebo více organizací je vyvíjena nějaká aplikace formou otevřeného kódu. Vychází se obvykle z myšlenky, že samostatný vývoj otevřeného řešení je rychlejší, levnější a lze jej snáze odladit, což je pro zadavatele důležité kritérium. Častým modelem financování je také dvoukolejní vývoj, kdy programátor v jednu verzi aplikace nabízí jako bezplatnou a otevřenou a druhou s funkcemi navíc jako placenou. Příkladem může být opět společnost Red Hat, která testuje nové funkce a vlastnosti na distribuci Fedora a zapracovává je do placené firemní distribuce Red Hat Enterprise Linux, která mimo funkcí navíc disponuje uživatelskou podporou a dalšími benefity. Open source není ale jen otázkou módní vlny či bezplatného používání, ale také modelu vývoje, který se obvykle značně liší od katedrálního modelu, na který jsou vývojáři zvyklí. Představa řízeného vývoje, s jasnou strukturou a organizací, kterou zná většina vývojářů v případě otevřeného modelu, většinou úplně nefunguje. Vývojář se stává postupem času spíše mentorem, koordinátorem a lídrem celé skupiny vývojářů, který musí udržet celý proces tvorby v chodu. Je třeba, aby komunikoval s dalšími programátory, grafiky či testery, staral se o dobrou implementaci funkcí či marketing. Z programátora se tak stále více stává manažer, který řídí tým, kterému obvykle nic neplatí.159 Na druhou stranu je častý také hybridní model, který je vidět u větších projektů či firem jako je Firefox či Red Hat, které disponují určitým množstvím klasických vývojářů, ke kterým se připojují další vývojáři z komunity. Náročné části kódu na vývoj, matematický popis a týmovou spolupráci jsou obvykle v takovém případě řešeny interně a dílčí moduly a přidané funkce s testováním zajišťuje komunita. 158 Určitý seznam je například na OSI. Open Source Licenses. 159 RAYMOND, Eric. The cathedral and the bazaar. 99 Tento aspekt struktury firem, respektive modelu vývoje mezi katedrálou a tržištěm je velice důležitý a je vždy vhodné uvážit, co konkrétně pro daný projekt je či není potřeba. Vhodně zvolená architektura umožní podstatně lepší vývoj a nabídne kvalitnější výsledky. Pro otevřený vývoj je vhodné používat dostatečně robustní webové prostředí. Dříve běžně užívaná webová stránka a e-mailová konference se jeví jako nepříliš efektivní a tak se zcela přirozeně objevují nástroje, které umožní lepší týmovou spolupráci, sledování změn a dohled nad celým projektem. Zřejmě nejznámějším a největším nástrojem tohoto typu je SourceForge, který nabízí nejen možnost ukládat aktuální verzi programu, ale podporuje pokročilé nástroje pro verzování, diskusní fórum, systém na sledování změn a řadu dalších funkcí. Dalším podobným nástrojem je Google Code, který nabízí mimo jiné také robustní API či Launchpad. Je vždy třeba zvážit, jak robustní nástroje se bude pro vývoj daného produktu hodit a zda je vhodné využít API, které by vývoj mohlo značně ulehčit. Online programovací nástroje, které složí například pro vývoj aplikací v AJAX, jsou z tohoto hlediska také velice praktické, protože umožňují okamžitou online spolupráci, ladění a diskusi nad problémem. Open source umožňuje dobré přizpůsobení aplikace potřebám zákazníka – není problém implementovat jeho vlastní moduly nebo mu na míru danou aplikaci upravit. Ostatně jde o jeden z častých modelů vývoje, kdy nové funkce a modul základní (core) aplikace vznikají na přání klientů a jsou pak dále nabízena uživatelům. Právě tato možnost přizpůsobení a do určité míry ztráta závislosti na dodavateli aplikaci zvyšuje atraktivitu produktu a při dodržení norem umožňuje snadný transfer dat mezi jednotlivými zařízeními a programy. To je také důvod, proč nejrůznější úřady všude ve světě přecházejí hromadně na open source řešení. Nejde jen o úsporu, ale především o nezávislost, možnost přizpůsobení si systému dle vlastních potřeb a modularitu. Lze bez nadsázky říci, že open source se stává módou, která může znamenat významnou konkurenční výhodu. Právě móda je jedním z nejdůležitějších parametrů, které lze v oblasti ICT sledovat – podléhá mu mnohem více než svět oblečení či hraček. Jde o skutečnost, kterou by měl mít každý vývojář v oblasti open source na paměti, když se pouští do vývoje libovolného produktu. Open source programování má v obecné rovině často silně modulární charakter, což může být jak pozitivní, z hlediska nákladů a rychlosti programování, tak také svazující, pokud jde o dlouhodobou udržitelnost a rozvoj. Platí totiž pravidlo, že většinu problémů již před námi někdo řešil a výsledek jeho snažení si můžeme, díky svobodným licencím, snadno importovat do vlastního díla. Velký kus práce tak za nás udělají druzí a programování ve světě open source je často přirovnáváno k puzzle – stačí najít vhodné kousky a dobře je pospojovat. Skutečně nové práce je často nutné odvést relativně málo.160 Na tento princip tvorby by vývojáři v případě open source technologií měli pamatovat již v počátcích tvorby aplikací – na jedné straně proto, aby si ušetřili práci s tvorbou algoritmů či celých knihoven, které již někdo vytvořil, ale také proto, aby byli schopni jednotlivé balíčky efektivně do aplikace začleňovat. Školní poučky o tom, jak by měl vypadat dobrý programátorský postup ,zde získává zcela jasný význam. Modularizace je nutná pro efektivní práci s již hotovými výtvory, poznámkování pro 160 FOGEL, Karl. Producing open source software: How to run a successful free software project. 100 pochopení algoritmů a jejich sdílení s dalšími vývojáři, efektivita kódu je při modulární výstavbě kritickou komponentou atp. Silné stránky a možnosti Některé silné stránky jsme již naznačili. Obecně je možné je rozdělit do dvou velkých skupin. První jsou výhody pro vývojáře a druhé pro koncové uživatele. Přitom je třeba říci, že výhody pro koncového uživatele jsou z hlediska vývoje softwaru také důležité, protože by měly být součástí marketingové strategie a celkové komunikace se zákazníky. Pokud jde o výhody pro programátora, tak prvním významným momentem je možnost používat cizí otevřené kódy a řešení. Nejde o prosté kradení nápadů či postupů druhých, ale o skutečnost, že řada funkcí se v programech opakuje. Příkladem mohou být algoritmy pro hledání jednoslovných předložek, které potřebuje každý textový editor, aby nezůstávaly na koncích řádků nebo třeba slovníky pro kontrolu pravopisu. Podobných příkladů lze najít desítky. To co by jedna společnost vyvíjela měsíce či roky je často k dispozici v hotové, odzkoušené formě. Tato skutečnost umožňuje v relativně velice krátkém čase vybudovat i značně robustní aplikace s velkým množstvím funkcí a nástrojů, které jsou umně poslepovány dohromady. Současně tyto možnosti vedou vývojáře k tomu, aby kód tvořili přehledně a pochopitelně, právě s ohledem na možný import cizích komponent. Dodržování pravidel programování je tak významným vedlejším efektem, který může v konečném důsledku přinášet velké finanční úspory. S rychlostí vývoje souvisí také možnost zapojení komunity. Pokud je pro ni projekt zajímavý a vývojář s ní umí pracovat, lze zásadním způsobem akcelerovat vývoj softwaru i v oblastech, které ještě nejsou hotové. Řada lidí se připojí k projektu proto, že dělají dobrou či zajímavou věc, ale také mohou být motivováni skutečností, že daný problém budou někdy potřebovat vyřešit také. Týmová spolupráce je proto levnější a rychlejší také pro ně samotné.161 Ač jedním z nejčastěji udávaných slabých míst otevřeného softwaru bývá považována bezpečnost, zkušenost ukazuje, že je situace jiná. Díky průhlednosti kódu je chybovost proprietárního i otevřeného softwaru nejhůře stejná. Pokud tedy nedochází k vývoji aplikací s krizovou důležitostí z hlediska bezpečnosti, jako je vojenský či bankovní software, lze říci, že bezpečnost patří mezi klady. Určitou výhodou může být také internacionalizace projektů. Díky otevřenosti kódu a propojeností velkých nástrojů na organisaci vývoje, dochází často k tvorbě mezinárodních vývojových komunit. Prostorová vzdálenost nepředstavuje žádný problém a propojení odborníků z různých částí světa může přinášet řadu benefitů. Tím nejdůležitějším je, že v mezinárodním prostředí je obvykle větší šance na nalezení osob, které mají stejný problém. Tým pro vývoj se tak vytváří snáze, než v menších centrech. Mezi další výhody pak patří různorodost přístupů k řešení problému, jeden z důležitých aspektů efektivního vývoje, odlišnost v dílčích potřebách a požadavcích na aplikaci, což může pomoci ke komplexnímu řešení nebo snadná lokalizace softwaru do národních jazyků zainteresovaných vývojářů. Nezanedbatelné jsou také výhody pro koncové zákazníky. Předně je to snížení závislosti na jednom dodavateli. Do velké míry může ve vývoji či úpravách systému pokračovat kdokoli jiný, aniž by bylo třeba hradit náklady na vývoj již hotových komponent. Jde o relativně důležitou skutečnost, kterou 161 HARS, Alexander; OU, Shaosong. Working for free? Motivations of participating in open source projects. 101 není možné marginalizovat. S tím souvisí také možný transport dat mezi aplikacemi. Díky jasné struktuře a otevřenosti lze snadno vyměnit jednu aplikaci za druhou, což v případě proprietárního softwaru není běžně možné. Pro uživatele je důležité také to, že si může aplikaci kdykoli upravit, rozšířit či pozměnit podle vlastního přání a potřeb. Je relativně obvyklé, že komerční firmy financují open source vývoj komponent do systému, který potřebují a používají. Díky této možnosti úpravy softwaru podle aktuálních potřeb lze zásadním způsobem zvyšovat efektivitu. Nejčastějším a nejhlasitějším argumentem je pak cena samotného softwaru, která je nulová a platí se jen za přidané služby či data. Slabé stránky a možné problémy Jedním z nejvíce diskutovaných problémů či nedostatků v oblasti vývoje open source aplikací je otázka ceny. Pokud máme aplikaci, jejíž vývoj stále nemalé množství času a peněz, může snadno dojít k tomu, že ji převezme někdo jiný a bude nabízet za nižší cenu, neboť přijde o nutnost počátečních investic, nebo sám produkt zlepší, takže bude konkurenceschopnější, nežli původní program. Na to zcela přirozeně navazuje problém, kolik je vlastně možné si za takový software účtovat a jaké další služby k němu musí být připojené, aby měl vůbec šanci na funkční obchodní model. Takto vytvořená expozice problému jednoznačně identifikuje jednu z možných obav. Je ale třeba říci, že svět softwaru se stále více posouvá do oblasti služeb. Uživatelé jsou stále více zvyklí platit za obsah nebo servis, než za samotný bázový produkt. Příkladem může být úspěšně fungující operační systém Android, který je bezplatný, ale společnosti Google generuje nemalý zisk především za prodej aplikací, hudby, filmů a knih v integrovaném obchodu s aplikacemi. Podobným příkladem by mohl být třeba Amazon a řada dalších firem. Bez zdarma dodaného softwaru by nebylo možné prodávat další služby či obsah, které mají velkou přidanou hodnotu. S trochou nadsázky tento posun představuje podobnou diferenci, jaká je mezi výrobcem válcovaného plechu a automobilu. Marže i přidaná hodnota automobilky je přirozeně mnohem vyšší. Podobným častým řešením jsou například otevřené cloudové aplikace, které získávají prostředky především z pronájmu výkonu svých serverů. Samotný software je zdarma, může si jej nainstalovat každý, ale provoz vlastního serveru není laciný, je nutná správa, konfigurace. Proto řada subjektů volí pronájem, na kterém vývojářské společnost vydělává, aniž by ztratila výhody vývoje open source aplikací. Ač to na první pohled může působit podivně, právě takové modely patří a zřejmě i budou patřit mezi nejúspěšnější. Rizikem může být nezvládnutí marketingu či nastavení finanční náročnosti. Druhým velkým rizikem může být do značné míry upravená role vývojáře, který nejen programuje, ale musí se starat také o to, aby jeho projekt fungoval po všech dalších stránkách. Komunikace s dalšími lidmi si zabere nemálo času, takže řada těch, kteří s programováním v open source začínali, dnes již nepíše téměř vůbec, a přesunula se do role manažerů. Nejde přitom jen o problémy související se ztrátou oblíbené činnosti, ale především o nároky na dovednosti a znalosti, které většina programátorů nemá. To co se učí manažeři pět let ve škole, je třeba zvládnout nějak rychleji a intuitivněji. V takovém případě se většina lidí neubrání řadě chyb, které mohou poškozovat celý programátorský záměr. Organizace virtuálních týmu, dobrá komunikace s testery i vývojáři, nutnost motivovat všechny, kdo se na vývoji podílejí, může při 102 nedobrém osobnostním profilu programátora či absence manažerských dovedností nakonec celý vývoj paradoxně brzdit a zpomalovat. Při názorových rozporech pak často dochází k rozpadům či štěpení týmů.162 Problémem jsou také licence. Ač v zásadě sledují velice podobné ideály, v drobnostech se liší a nejsou obecně příliš kompatibilní. Nelze ani říci, že by existoval nějaký jednoznačný žebříček, který by je řadil podle striktnosti, takže v případě, že potřebuje programátor kombinovat řešení různých osob, může se dostat do složitých licenčních problémů. Také volba vlastní licence se tak ukazuje nikoli jako marginální záležitost, ale jako to, co může mít velký dopad na praktický vývoj. Licencí jsou přitom desítky a není možné se v nich vždy snadno zorientovat. Samozřejmostí by měla být znalost těch základních, ale v případě exotických jako jsou ISC License (ISC) Multics License (Multics) či NASA Open Source Agreement 1.3 (NASA-1.3) je velice složité vyhledat a právně zajistit vzájemnou kompatibilitu. Konzultace s právními odborníky je v takovém případě zcela nezbytná a často nákladná, což opět může pozdržet vývoj či zveřejnění nové verze systému. Nezanedbatelným rizikem je také možnost, že nedojde k vytvoření komunity, která by se na vývoji a testování softwaru podílela. V takovém případě padá velká část výhod, které s sebou toto vývojářské paradigma přináší. Aktuální projekty Open source stal masivním hnutím, ke kterému se dnes připojují stovky či tisíce vývojářů a aplikací. Z těch nejznámějších lze vyzvednout například dvojici operačních systémů Linux a Android. Linux je dnes nejrozšířenějším operačním systémem pro servery, ale hojně se užívá také ve vestavěných zařízeních či chytrých televizích. Společné pro všechny distribuce je jádro, nad kterým pak běží grafické prostředí (například Gnome, KDE atp.), ovládaní a ovladače či aplikace. Řada uživatelů pak má také Linux nainstalovaný na svých pracovních stanicích. Android nabízí zcela jiný pohled na open source vývoj. Stojí za ním Google, který jej organizuje, financuje, hledá pro něj koncová zařízení, stará se o marketing atp. Přínos komunity je zde spíše menší, ale otevřenost usnadňuje vývoj a zlepšuje obraz celého projektu. Oproti rozdrobeným linuxovým distribucím je zde jedna jasná linie, kterou garantuje jedna společnost.163 Dalším známým příkladem je OpenOffice.org což je kancelářský balík, který má konkurovat MS Office. Poté, co byla společnost Sun koupena Oracle, došlo k postupné stagnaci projektu a jeho fragmentaci. Dnes je vývoj zase obnoven díky odštěpení části vývojářů a přispěvatelů k projektu LibreOffice. Jde o pěknou ukázku toho, kdy svoboda licence a fragmentace může projekt zachránit. Známé je také prostřední pro e-learning Moodle, které patří mezi nejpoužívanější a nejoblíbenější na světě. Zdrojem financí je pronájem samotného názvu produktu pro školící a vzdělávací aktivity. Servis, který chce názvu Moodle využívat, musí platit. Díky masovému rozšíření jde opět o velice zajímavý a životaschopný model financování.164 162 MONTOYA-WEISS, Mitzi M.; MASSEY, Anne P.; SONG, Michael. Getting it together: Temporal coordination and conflict management in global virtual teams. 163 Google. Welcome to the Android Open Source Project!. 164 Srov. Moodle licence. 103 Příkladem z druhé strany spektra může být grafický editor GIMP, který měl konkurovat Photoshopu. Ač jde o funkční, robustní a relativně známý nástroj, potýká se s neustálými problémy – velice malá vývojářská komunita, pomalý vývoj, špatné grafické rozhraní, absence obchodního modelu atp. Ani dobrá myšlenka a nesmírně kvalitní produkt tak nemusí nutně znamenat úspěch. Vybraná literatura k jednotlivým trendům Big data WEINBERG, Paul N, James R GROFF, Andrew J OPPEL a James R GROFF. SQL, the complete reference. 3rd ed. New York: McGraw-Hill, c2010, xxviii, 882 p. ISBN 00-715-9255-5. Seriál Nerelační databáze. Zdroják [online]. 2011 [cit. 2012-09-05]. Dostupné z WWW: EELCO PLUGGE, Peter Membrey and Tim Hawkins. The definitive guide to MongoDB: the noSQL database for cloud and desktop computing. New ed. New York, NY: Apress, 2010. ISBN 978-143- 0230-519. FRY, Ben. Visualizing data. 1st ed. Sebastopol: O´Reilly, 2007, xiii, 366 s. ISBN 05-965-1455-7. APACHE. Welcome to Apache™ Hadoop®! [online]. 2012 [cit. 2013-02-12]. Dostupné z WWW: http://hadoop.apache.org/ . DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat. SystemOnline [online]. 2011 [cit. 2013-01-09]. Dostupné z . CAPLAN, Priscilla. Metadata fundamentals for all librarians. Chicago: American Library Association, 2003, ix, 192 p. ISBN 08-389-0847-0. HOWE, Doug, et al. Big data: The future of biocuration. Nature, 2008, 455.7209: 47-50. BOYD, Danah; CRAWFORD, Kate. Six provocations for big data. 2011. LOHR, Steve. The age of big data. New York Times, 2012, 11. ZIKOPOULOS, Paul, et al. Understanding big data: Analytics for enterprise class hadoop and streaming data. McGraw-Hill Osborne Media, 2011. LAURILA, Juha K., et al. The mobile data challenge: Big data for mobile computing research. In: Proceedings of the Workshop on the Nokia Mobile Data Challenge, in Conjunction with the 10th International Conference on Pervasive Computing. 2012. p. 1-8. AGRAWAL, Divyakant; DAS, Sudipto; EL ABBADI, Amr. Big data and cloud computing: current state and future opportunities. In: Proceedings of the 14th International Conference on Extending Database Technology. ACM, 2011. p. 530-533. Virtualizace GOLDEN, Bernard. Virtualization For Dummies. Wiley, 2013. ISBN 9780470277195. 104 HALTER, Chris Wolf and Erick M. Virtualization from the desktop to the enterprise. Berkeley, CA: Apress, 2005. ISBN 978-143-0200-277. HUBER, Thomas. Virtualizace IT. SystemOnline [online]. 2012 [cit. 2013-06-20]. Dostupné z: http://www.systemonline.cz/virtualizace/virtualizace-it.htm KOLLARIKOVÁ, Kateřina. Hardwarové principy virtualizace. 2011. KUBÁT, Ondřej. Virtualizace versus běžná instalace systémů a aplikací. 2012. KUSNETZKY, Dan. Virtualization: a manager's guide. Sebastopol, CA: O'Reilly, c2011, ix, 58 p. ISBN 14- 493-0645-4. MATYSKA, Luděk. Techniky virtualizace počítačů (2). 2007. MATYSKA, Luděk. Virtualizace výpočetního prostredí. Zpravodaj ÚVT, 2007, 9-11. MENKEN, Ivanka a Gerard BLOKDIJK. A complete guide on virtualization. [Australia: Emereo Pty Ltd], c2008, 199 s. ISBN 978-1-921523-91-5. Sémantické technologie: web a desktop BERNERS-LEE, Tim, et al. The semantic web. Scientific american, 2001, 284.5: 28-37. HENDLER, James. Agents and the semantic web. Intelligent Systems, IEEE, 2001, 16.2: 30-37. MCILRAITH, Sheila A.; SON, Tran Cao; ZENG, Honglei. Semantic web services. Intelligent Systems, IEEE, 2001, 16.2: 46-53. ANKOLEKAR, Anupriya, et al. DAML-S: Web service description for the semantic web. In: The Semantic Web—ISWC 2002. Springer Berlin Heidelberg, 2002. p. 348-363. BERNERS-LEE, Tim. Semantic web road map. 1998. SAUERMANN, Leo; BERNARDI, Ansgar; DENGEL, Andreas. Overview and Outlook on the Semantic Desktop. In: Semantic Desktop Workshop. 2005. AUMÜLLER, David; AUER, Sören. Towards a Semantic Wiki Experience-Desktop Integration and Interactivity in WikSAR. In: Semantic Desktop Workshop. 2005. p. 2005-2012. DECKER, Stefan; FRANK, Martin R. The Networked Semantic Desktop. In: WWW Workshop on Application Design, Development and Implementation Issues in the Semantic Web. 2004. p. 1613- 0073. SAUERMANN, Leo. The semantic desktop-a basis for personal knowledge management. In: Proceedings of the I-KNOW. 2005. ČERNÝ, Michal. Budoucnost sémantického desktopu. Inflow: information journal[online]. 2012, roč. 5, č. 1 [cit. 2012-01-07]. Dostupný z WWW: . ISSN 1802-9736. 105 ČERNÝ, Michal. Stručný úvod do konceptu sémantického desktopu. Inflow: information journal [online]. 2011, roč. 4, č. 12 [cit. 2011-12-07]. Dostupný z WWW: . ISSN 1802-9736. ČERNÝ, Michal. Sémantický web – jak dál?. Ikaros [online]. 2009, roč. 13, č. 5. [cit. 2009-05-08]. Dostupný na World Wide Web: . URN-NBN:cz-ik5437. ISSN 1212- 5075. W3C. W3C Semantic Web Activity [online]. 2009 [cit. 2009-04-15]. Anglicky. Dostupný z WWW: . MATULÍK, Petr, PITNER, Tomáš. Sémantický web a jeho technologie. Zpravodaj ÚVT MU. 2004, roč. XIV,, č. 3, s. 15-17. Dostupný z WWW: . ISSN 1212-0901. KOSEK, Jiří. Lepší vyhledávání na webu. Domovská stránka Jirky Koska - "VŠE O WWW" [online]. 2008 [cit. 2009-03-26]. Dostupný z WWW . GROZA, Tudor , et al. Ir.library.nuigalway.ie [online]. 2007 [cit. 2011-11-19]. The NEPOMUK Project On the way to the Social Semantic Desktop . Dostupné z WWW: . VADINSKÝ, Ondřej. Abc Linuxu [online]. 2010 [cit. 2011-11-19]. Nepomuk-KDE: Sémantický desktop pro Linux. Dostupné z WWW: . ISSN 1214-1267. Zpracování přirozeného jazyka ČERNÝ, Michal. Budoucnost sémantického desktopu. Inflow: information journal[online]. 2012, roč. 5, č. 1 [cit. 2012-01-07]. Dostupný z WWW: . ISSN 1802-9736. Edited by MADELEINE BATES, Ralph M. Challenges in natural language processing. 1. paperb. version. Cambridge [England]: Cambridge University Press. ISBN 978-052-1032-261. JACKSON, Peter a Isabelle MOULINIER. Natural language processing for online applications: text retrieval, extraction and categorization. 2nd rev. ed. Philadelphia: John Benjamins Pub., c2007, x, 231 p. Natural language processing (Amsterdam, Netherlands), v. 5. ISBN 90-272-4993-8. KUMAR, Ela. Natural language processing. New Delhi: I.K. International Publishing House. ISBN 978- 938-0578-774. PALA, Karel a Pavel RYCHLÝ a Pavel ŠMERK. Automatic Identification of Legal Terms in Czech Law Texts. In Semantic Processing of Legal Texts. Berlin: Springer, 2010. od s. 83-94, 12 s. ISBN 978-3-642- 12836-3. PALA, Karel a Pavel RYCHLÝ a Pavel ŠMERK. Morphological Analysis of Law texts. In SOJKA, Petr a Aleš HORÁK a Petr SOJKA. First Workshop on Recent Advances in Slavonic Natural Languages Processing, RASLAN 2007. Brno: Masaryk University, 2007. od s. 21-26, 7 s. ISBN 978-80-210-4471-5. 106 PALA, Karel. Počítačové zpracování přirozeného jazyka. NLP FI MU [online]. 2000 [cit. 2012-12-27]. Dostupné z: nlp.fi.muni.cz/poc_lingv/pala_zprac.pd SOJKA, Petr a Ivan KOPEČEK a Karel PALA. Text, Speech and Dialogue: 9th International Conference TSD 2006, Brno, Czech Republic, September 11-15, 2006. Edited by Sojka P., Kopeček I., Pala K. prvni. Berlin Heidelberg: Springer Verlag, 2006. 721 s. 9th International Conference, TSD 2006, Brno, Czech Republic, September 11-15, 2006, Proceedings. ISBN 3-540-39090-1. WILLIAMS, Jason D. a Steve YOUNG. Partially observable Markov decision processes for spoken dialog systems. Computer Speech. 2007, roč. 21, č. 2, s. 393-422. ISSN 08852308. Dostupné z: http://linkinghub.elsevier.com/retrieve/pii/S0885230806000283 Počítačové zpracování emocí JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí [online]. 2007 [cit. 2013-07-12]. Diplomová práce. Masarykova univerzita, Fakulta informatiky. Vedoucí práce Ivan Kopeček. Dostupné z: . TAO, Jianhua; TAN, Tieniu. Affective Computing: A Review. In: Affective Computing and Intelligent Interaction: First International Conference, ACII 2005, Beijing, China, October 22-24, 2005. Proceedings. 1st edition. Berlin Heidelberg: Springer-Verlag, 2005, s. 981–995. Dostupné z: http://www.springerlink.com/content/r153122u1vn0. ISBN 3-540-29621-2, ISSN 0302-9743. PICARD, Rosalind W. Affective Computing. M.I.T Media Laboratory Perceptual Computing Section Technical Report. 1995, No. 321. WEINSTEIN, Norman. Thinking about emotional machines. Technology Review. Jan/Feb 1998, s. 65- 66. ISSN 0040-1692. KOPEČEK, Ivan. Počítačové zpracování emocí: Affective computing [online]. [cit. 2011-12-04]. Dostupné z: http://www.fi.muni.cz/~kopecek/socin7_affective_computing.ppt KOPEČEK, Ivan. Personality and Emotions - Finite State Modelling by Dialogue Automata. In Proceedings of UM 2001 Workshop on Attitudes, Personality and Emotions in User-Adapted Interaction. Bari: Universitz of Bari, 2001. s. 1-6. KOPEČEK, Ivan, Karel PALA a Markéta STRAŇÁKOVÁ-LOPATKOVÁ. Ambiguity Problems in HumanComputer Interaction. In Universal Access in HCI. London: Lawrence Erlbaum Associates, Publishers, 2001. s. 486-489. Volume 3. ISBN 0-8058-3609-8. PŘIKRYL, Zdeněk. Modelování osobnosti [online]. 2008 [cit. 2013-07-12]. Diplomová práce. Masarykova univerzita, Fakulta informatiky. Vedoucí práce Ivan Kopeček. Dostupné z: . ORTONY, Andrew; TURNER, Terence J. What's basic about basic emotions?. Psychological review, 1990, 97.3: 315. EKMAN, Paul. Basic emotions. Handbook of cognition and emotion, 1999, 4: 5-60. 107 PICARD, Rosalind W. Affective computing: challenges. International Journal of Human-Computer Studies, 2003, 59.1: 55-64. PICARD, Rosalind W.; COMPUTING, Affective; EDITURA, M. I. T. MIT Press. Cambridge, MA, 1997. IPv6 ANTOŠ, David. Úvod do IPv6. Zpravodaj ÚVT MU. 2008, roč. XVIII, č. 3, s. 7-10. ISSN 1212-0901. AMOSS, John a Daniel MINOLI. Handbook of IPv4 to IPv6 transition: methodologies for institutional and corporate networks. Boca Raton: Auerbach Publications, c2008, xviii, 227 p. ISBN 08-493-8516-4. KOODLI, Rajeev S a Charles E PERKINS. Mobile inter-networking with IPv6: concepts, prociples, and practices. Hoboken: John Wiley, 2007, xxix, 365 s. ISBN 978-0-471-68165-6. HUITEMA, Christian. IPv6--the new Internet protocol. 2nd ed. Upper Saddle River, NJ: Prentice Hall PTR, c1998, viii, 247 p. ISBN 01-385-0505-5. HAGEN, Silvia. IPv6 essentials. 2nd ed. Beijing: O´Reilly, 2006, 418 s. ISBN 05-961-0058-2. HUSTON, Geoff a George MICHAELSON. Counting DNSSEC. Potaroo.net [online]. 2012 [cit. 2012-12- 17]. Dostupné z: http://www.potaroo.net/ispcol/2012-10/counting-dnssec.html Cisco IPv6 Lab: IPv6 Deployment. Cisco [online]. 2012 [cit. 2012-12-17]. Dostupné z: http://6lab.cisco.com/stats/ YORK, Dan. Migrating applications to IPv6. 1st ed. Sebastopol, Calif.: O'Reilly, c2011, xxi, 34 p. ISBN 14-493-0787-6. SATRAPA, Pavel. IPv6: internetový protokol verze 6. 3., aktualiz. a dopl. vyd. Praha: CZ.NIC, c2011, 407 s. CZ.NIC. ISBN 978-80-904248-4-5. PRŮŠA, Jiří. IPv6 v Česku měsíc po „dni D“. Connect [online]. 2012 [cit. 2012-12-17]. Dostupné z: http://connect.zive.cz/bleskovky/ipv6-v-cesku-mesic-po-dni-d/sc-321-a-164455 Internet věcí ATZORI, Luigi; IERA, Antonio; MORABITO, Giacomo. The internet of things: A survey. Computer Networks, 2010, 54.15: 2787-2805. WELBOURNE, Evan, et al. Building the internet of things using RFID: the RFID ecosystem experience. Internet computing, IEEE, 2009, 13.3: 48-55. SARMA, Amardeo C.; GIRÃO, João. Identities in the future internet of things. Wireless personal communications, 2009, 49.3: 353-363. WAHLSTER, Wolfgang. SemProM: Foundations of Semantic Product Memories for the Internet of Things. Springer, 2013. AGGARWAL, Charu C.; ASHISH, Naveen; SHETH, Amit. The Internet of Things: A Survey from the DataCentric Perspective. In: Managing and Mining Sensor Data. Springer US, 2013. p. 383-428. 108 PERERA, Charith, et al. Context-aware sensor search, selection and ranking model for internet of things middleware. arXiv preprint arXiv:1303.2447, 2013. GARCIA-MORCHON, Oscar, et al. Security Considerations in the IP-based Internet of Things. 2013. ZHOU, Linli, et al. Applications of Internet of Things in the Facility Agriculture. In: Computer and Computing Technologies in Agriculture VI. Springer Berlin Heidelberg, 2013. p. 297-303. SEDLÁK, Jan. Internet věcí bude bilionový byznys. I pro české firmy. Connect [online]. 2013 [cit. 2013- 07-12]. Dostupné z: http://connect.zive.cz/clanky/internet-veci-bude-bilionovy-byznys-i-pro-ceske- firmy/sc-320-a-169420 MICHAL, Černý. Internet věcí: výzva pro business i vývojáře. Root [online]. 2013 [cit. 2013-07-12]. Dostupné z: http://www.root.cz/clanky/internet-veci-vyzva-pro-business-i-vyvojare/ Rozšířená realita CASCALES, Antonia, et al. An Experience on Natural Sciences Augmented Reality Contents for Preschoolers. In: Virtual, Augmented and Mixed Reality. Systems and Applications. Springer Berlin Heidelberg, 2013. p. 103-112. JOHNSON, Adrian S.; SUN, Yu. Spatial Augmented Reality on Person: Exploring the Most Personal Medium. In: Virtual Augmented and Mixed Reality. Designing and Developing Augmented and Virtual Environments. Springer Berlin Heidelberg, 2013. p. 169-174. GOFFREDO, M., et al. 3D Reaching in Visual Augmented Reality Using KinectTM: The Perception of Virtual Target. In: Converging Clinical and Engineering Research on Neurorehabilitation. Springer Berlin Heidelberg, 2013. p. 711-715. LIVINGSTON, Mark A., et al. Basic Perception in Head-worn Augmented Reality Displays. In: Human Factors in Augmented Reality Environments. Springer New York, 2013. p. 35-65. TERNIER, Stefaan, et al. Mobile augmented reality with audio. Supporting fieldwork of Cultural Sciences students in Florence. 2013. FRITZ, Jan, et al. Augmented reality visualisation using an image overlay system for MR-guided interventions: technical performance of spine injection procedures in human cadavers at 1.5 Tesla. European radiology, 2013, 23.1: 235-245. MICK, Jason L.; WINELAND, Joel. Using Augmented Reality To Create An Interface For Datacenter And Systems Management. U.S. Patent No 20,130,031,202, 2013. MICHAL, Černý. Rozšířená realita: od mobilního telefonu k chytrým brýlím. Root [online]. 2013 [cit. 2013-07-12]. Dostupné z: http://www.root.cz/clanky/rozsirena-realita-od-mobilniho-telefonu-k- chytrym-brylim/ Complex event processing BUCHMANN, Alejandro; KOLDEHOFE, Boris. Complex event processing. it-Information Technology, 2009, 51.5: 241-242. 109 WU, Eugene; DIAO, Yanlei; RIZVI, Shariq. High-performance complex event processing over streams. In: Proceedings of the 2006 ACM SIGMOD international conference on Management of data. ACM, 2006. p. 407-418. LUCKHAM, David C. The power of events. Reading: Addison-Wesley, 2002. LUCKHAM, David C.; FRASCA, Brian. Complex event processing in distributed systems. Computer Systems Laboratory Technical Report CSL-TR-98-754. Stanford University, Stanford, 1998, 28. VAN VLIET, M., et al. Complex Event Processing. 2007. GRAY, Jim; REUTER, Andreas. Transaction processing. Kaufmann, 1993. CHAKRAVARTHY, Sharma. Stream data processing: a quality of service perspective: modeling, scheduling, load shedding, and complex event processing. Springer, 2009. RUSSOM, Philip. Big data analytics. TDWI Best Practices Report, Fourth Quarter, 2011. DERAKHSHAN, Roozbeh; ORLOWSKA, Maria E.; LI, Xue. RFID data management: challenges and opportunities. In: RFID, 2007. IEEE International Conference on. IEEE, 2007. p. 175-182. ETZION, Opher a Peter NIBLETT. Event Processing in Action. : Manning, 2010. 384 s. ISBN 978-1- 935182-21-4. LUCKHAM, David C. The power of events :an introduction to complex event processing in distributed enterprise systems. Boston: Addison-Wesley, 2002. xix, 376 s. ISBN 0201727897. KARPÍŠEK, Jiří. Praktický úvod do Complex Event Processing [online]. 2011 [cit. 2013-07-12]. Diplomová práce. Masarykova univerzita, Fakulta informatiky. Vedoucí práce Michal Oškera. Dostupné z: . GREGOR, Jiří a Martin HOLUB. Nástroje complex event processing jsou klíčem k efektivnímu rozhodování v reálném čase. SystemOnline [online]. 2012 [cit. 2013-07-12]. Dostupné z: http://www.systemonline.cz/clanky/nastroje-complex-event-processing.htm Bring your own device (BYOD) BALLAGAS, Rafael, et al. BYOD: Bring your own device. In: UbiComp 2004 Workshop on Ubiquitous Display Environments. 2004. BURT, Jeffrey. BYOD trend pressures corporate networks. eweek, 2011, 28.14: 30-31. HAYES, Bob a Kathleen KOTWICA. Bring Your Own Device (BYOD) to Work: Trend Report. Newnes, 2013. ISBN 9780124116108. HEARY, Jamey. Cisco ise for byod and secure unified access. 1st Ed. pages cm. ISBN 978-158-7143- 250. KEYES, Jessica. Bring your own devices (BYOD) survival guide. xviii, 433 pages. ISBN 9781466565036-. 110 LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku. CIO [online]. 2013 [cit. 2013-06- 05]. Dostupné z: http://businessworld.cz/analyzy/byod-pouziva-jiz-polovina-it-odborniku-v-cesku- 10809 MANSFIELD-DEVINE, Steve. Interview: BYOD and the enterprise network. Computer Fraud & Security, 2012, 2012.4: 14-17. MCLELLAN, Charles. Consumerization, BYOD and MDM: What you need to know. Zdnet [online]. 2013 [cit. 2013-06-05]. Dostupné z: http://www.zdnet.com/consumerization-byod-and-mdm-what-you- need-to-know-7000010205/ RATHS, David. Are You Ready for BYOD?. THE Journal, 2012, 39.4: 28-32. SKÁLA, Zbyněk. Nástrahy implementace BYOD politiky. System online [online]. 2012 [cit. 2013-06-05]. Dostupné z: http://www.systemonline.cz/hrm-personalistika/nastrahy-implementace-byod- politiky.htm THOMSON, Gordon. BYOD: enabling the chaos. Network Security, 2012, 2012.2: 5-8. HTML5 PILGRIM, Mark. HTML5: up and running. 1st ed. Sebastopol, CA: O'Reilly, 2010, xii, 205 p. ISBN 978- 059-6806-026. FRAIN, Ben. Responsive web design with HTML5 and CSS3: learn responsive design using HTML5 and CSS3 to adept websites to any browser or screen size. Birmingham: Packt. ISBN 978-184-9693-189. LAWSON, Bruce, Remy SHARP a Bruce LAWSON. Introducing HTML 5. 2nd ed. Berkeley, CA: New Riders, c2012, xvi, 295 p. Voices that matter. ISBN 03-217-8442-1. WILLIAMS, James L. Learning HTML5 game programming: a hands-on guide to building online games using Canvas, SVG, and WebGL. Upper Saddle River, NJ: Addison-Wesley, 2012, xiii, 234 p. ISBN 978- 032-1767-363. HTML5 Intoroducion. W3C. W3schools [online]. 2012 [cit. 2012-12-04]. Dostupné z: http://www.w3schools.com/html/html5_intro.asp MALÝ, Martin. Seriál Webdesignérův průvodce po HTML5. Zdroják [online]. 2011 [cit. 2012-12-04]. Dostupné z: http://www.zdrojak.cz/serialy/webdesigneruv-pruvodce-po-html5/ SMOLA, Martin. Seriál HTML5 a jeho zajímavé vlastnosti. Root [online]. 2012 [cit. 2012-12-04]. Dostupné z: http://www.root.cz/serialy/html5-a-jeho-zajimave-vlastnosti/ Open source WEBER, Steve. The success of open source. Cambridge, MA: Harvard University Press, 2004. FELLER, Joseph, et al. Understanding open source software development. London: Addison-Wesley, 2002. LERNER, Josh; TIROLE, Jean. Some simple economics of open source. The journal of industrial economics, 2002, 50.2: 197-234. 111 SAEED, A. I., et al. TM4: a free, open-source system for microarray data management and analysis. Biotechniques, 2003, 34.2: 374. HARS, Alexander; OU, Shaosong. Working for free? Motivations of participating in open source projects. In: System Sciences, 2001. Proceedings of the 34th Annual Hawaii International Conference on. IEEE, 2001. p. 9 pp. SCHLOSS, Patrick D., et al. Introducing mothur: open-source, platform-independent, communitysupported software for describing and comparing microbial communities. Applied and environmental microbiology, 2009, 75.23: 7537-7541. STALLMAN, Richard M.; GAY, Joshua. Free software, free society: Selected essays of Richard M. Stallman. CreateSpace, 2009. STALLMAN, Richard, et al. The GNU manifesto. 1985. RAYMOND, Eric. The cathedral and the bazaar. Knowledge, Technology & Policy, 1999, 12.3: 23-49. FOGEL, Karl. Producing open source software: How to run a successful free software project. O'Reilly Media, Inc., 2005. CAPILUPPI, Andrea; MICHLMAYR, Martin. From the cathedral to the bazaar: An empirical study of the lifecycle of volunteer community projects. In: Open Source Development, Adoption and Innovation. Springer US, 2007. p. 31-44. 112 Poznámky pod čarou – použitá literatura AAMODT, Kenneth, et al. The ALICE experiment at the CERN LHC. Journal of Instrumentation, 2008, 3.08: S08002. Aktuální výsledky výzkumu ZČU v Plzni v oblasti podtitulkování pořadů pro neslyšící. Česká televize [online]. 2012 [cit. 2013-09-11]. Dostupné z: http://img.ct24.cz/multimedia/documents/37/3685/368414.pdf ANKOLEKAR, Anupriya, et al. DAML-S: Web service description for the semantic web. In: The Semantic Web—ISWC 2002. Springer Berlin Heidelberg, 2002. p. 348-363. APACHE. Welcome to Apache™ Hadoop®! [online]. 2012 [cit. 2013-02-12]. Dostupné z: http://hadoop.apache.org/ Automatic captions. GOOGLE. YouTube [online]. 2013 [cit. 2013-09-11]. Dostupné z: https://support.google.com/youtube/answer/3038280?hl=en BEHR, Johannes, et al. A scalable architecture for the HTML5/X3D integration model X3DOM. In: Proceedings of the 15th International Conference on Web 3D Technology. ACM, 2010. p. 185-194. BERNERS-LEE, Tim a Daniel CONNOLLY. Hypertext Markup Language (HTML): A Representation of Textual Information and MetaInformation for Retrieval and Interchange. IETF [online]. 1993 [cit. 2013-09-12]. Dostupné z: http://tools.ietf.org/id/draft-ietf-iiir-html-00.txt BERNERS-LEE, Tim, et al. The semantic web. Scientific american, 2001, 284.5: 28-37. BERNERS-LEE, Tim. Semantic web road map. 1998. BRDIČKA, Bořivoj. Daty řízené školství, politika a technologie. Metodický portál: Články [online]. 24. 05. 2010, [cit. 2013-09-10]. Dostupný z WWW: . ISSN 1802-4785. BRDIČKA, Bořivoj. Skutečné možnosti využití daty řízeného školství. Metodický portál: Články [online]. 12. 09. 2011, [cit. 2013-09-10]. Dostupný z WWW: . ISSN 1802-4785. BROCKMEIER, Joe. What We Lose in a Post-PC World. ReadWriteWeb [online]. 2012[cit. 2012-03-11]. Dostupné z: http://readwrite.com/2012/03/08/what-we-lose-in-a-post-pc-worl BYOD Smart Solution. Cisco [online]. 2013 [cit. 2013-09-12]. Dostupné z: http://www.cisco.com/web/solutions/trends/byod_smart_solution/index.html CATTELL, Raymond B. A shortened “basic English” version (Form C) of the 16 PF Questionnaire. The Journal of Social Psychology, 1956, 44.2: 257-278. Cisco IPv6 Lab: IPv6 Deployment. Cisco [online]. 2012 [cit. 2012-12-17]. Dostupné z: http://6lab.cisco.com/stats/ 113 ČERNÝ, Michal a Gabriela ŠIMKOVÁ. Fascinující možnosti WolframAlpha. Inflow : information journal [online], Brno, 2012, roč. 5, č. 10. ISSN 1802-9736. ČERNÝ, Michal. Budoucnost sémantického desktopu. Inflow: information journal[online]. 2012, roč. 5, č. 1 [cit. 2012-01-07]. Dostupný z WWW: . ISSN 1802-9736. ČERNÝ, Michal. Budoucnost vyhledávání: Mezi soukromím, technologií a legislativou. In INFORUM 2012: 18. ročník konference o profesionálních informačních zdrojích. Praha: Albertina icome Praha, 2012. 8 s. ISSN 1801-2213. ČERNÝ, Michal. Changes in information literacy in the context of new technologies. Praha: Center for Higher Education Studies, 2013. s. 53-56, 4 s. ISBN 978-80-86302-45-4. ČERNÝ, Michal. Ke konceptu soukromí v informační společnosti. Inflow: information journal [online]. 2012, roč. 5, č. 4 [cit. 2012-04-07]. Dostupný z WWW: . ISSN 1802-9736. ČERNÝ, Michal. Počítačové zpracování emocí. Root [online]. 2013 [cit. 2013-09-11]. Dostupné z: http://www.root.cz/clanky/pocitacove-zpracovani-emoci/ ČERNÝ, Michal. Ubuntu jde s mobilními telefony naproti firmám. Root [online]. 2013 [cit. 2013-09- 12]. Dostupné z: http://www.root.cz/clanky/ubuntu-jde-s-mobilnimi-telefony-naproti-firmam/ ČERNÝ, Michal. Ubuntu se zásadně změní. Je důvodem jeho prodej?. Root [online]. 2013 [cit. 2013- 09-12]. Dostupné z: http://www.root.cz/clanky/ubuntu-se-zasadne-zmeni-je-duvodem-jeho-prodej/ ČERNÝ, Michal. Vybraná témata ze sociální informatiky II.. Metodický portál: Články [online]. 21. 05. 2012, [cit. 2013-09-10]. Dostupný z WWW: . ISSN 1802-4785. ČERNÝ, Michal. Sémantický web – jak dál?. Ikaros [online]. 2009, roč. 13, č. 5. [cit. 2013-05-08]. Dostupný na World Wide Web: . URN-NBN:cz-ik5437. ISSN 1212- 5075. ČERNÝ, Michal. Stručný úvod do konceptu sémantického desktopu. Inflow: information journal [online]. 2011, roč. 4, č. 12 [cit. 2011-12-07]. Dostupný z WWW: . ISSN 1802-9736. DECKER, Stefan; FRANK, Martin R. The Networked Semantic Desktop. In: WWW Workshop on Application Design, Development and Implementation Issues in the Semantic Web. 2004. p. 1613- 0073. DELOITTE. Technology, Media & Telecommunications Predictions 2013. Deloitte [online]. 2012 [cit. 2013-01-09]. Dostupné z: http://www.deloitte.com/assets/Dcom- BruneiDarussalam/Local%20Assets/Documents/TMT%20Predictions%202013.pdf DFKI GMBH - KNOWLEDGE MANAGEMENT DEPARTMENT. NEPOMUK - The Social Semantic Desktop FP6-027705 [online]. 2008 [cit. 2013-09-11]. Dostupné z: http://nepomuk.semanticdesktop.org/ 114 DODDAVULA, Shyam Kumar; AGRAWAL, Ira; SAXENA, Vikas. Cloud Computing Solution Patterns: Infrastructural Solutions. In: Cloud Computing. Springer London, 2013. p. 197-219. DOLÁK, Ondřej. Big data: Nové způsoby zpracování a analýzy velkých objemů dat. SystemOnline [online]. 2011 [cit. 2013-01-09]. Dostupné z: http://www.systemonline.cz/clanky/big-data.htm ECKERT, Michael. Complex event processing with XChange EQ: language design, formal semantics, and incremental evaluation for querying events. LMU München: Faculty of Mathematics, München, 2008. EDMUNDS, Angela; MORRIS, Anne. The problem of information overload in business organisations: a review of the literature. International journal of information management, 2000, 20.1: 17-28. EELCO PLUGGE, Peter Membrey and Tim Hawkins. The definitive guide to MongoDB: the noSQL database for cloud and desktop computing. New ed. New York, NY: Apress, 2010. ISBN 978-143- 0230-519. EKMAN, Paul. Basic emotions. Handbook of cognition and emotion, 1999, 4: 5-60. FILIP, Ondřej. Tak jsme na suchu!. Root [online]. 2012 [cit. 2013-09-12]. Dostupné z: http://www.root.cz/clanky/tak-jsme-na-suchu/ Fitbit flex. Ifitbit [online]. 2013 [cit. 2013-09-12]. Dostupné z: http://www.ifitbit.cz/eshop/fitbit/flex/ FOGEL, Karl. Producing open source software: How to run a successful free software project. O'Reilly Media, Inc., 2005. FROULÍK, Radek. Nová ekonomika a globální informační společnost. Interval [online]. 2005 [cit. 2013- 09-11]. Dostupné z: http://interval.cz/clanky/nova-ekonomika-a-globalni-informacni-spolecnost/ Google Glass. Google [online]. 2013 [cit. 2013-08-19]. Dostupné z: http://www.google.com/glass/start/ Google Goggles. Google [online]. 2012 [cit. 2013-04-25]. Dostupné z: http://www.google.cz/intl/cs/mobile/goggles/#text GREGOR, Jiří a Martin HOLUB. Nástroje complex event processing jsou klíčem k efektivnímu rozhodování v reálném čase. SystemOnline [online]. 2012 [cit. 2013-07-12]. Dostupné z: http://www.systemonline.cz/clanky/nastroje-complex-event-processing.htm HARRIS, Frank; MCCAFFER, Ronald. Modern construction management. Wiley. com, 2013. HARS, Alexander; OU, Shaosong. Working for free? Motivations of participating in open source projects. In: System Sciences, 2001. Proceedings of the 34th Annual Hawaii International Conference on. IEEE, 2001. p. 9 pp. HAYES, Bob a Kathleen KOTWICA. Bring Your Own Device (BYOD) to Work: Trend Report. Newnes, 2013. ISBN 9780124116108. HEDGEBETH, Darius. Data-driven decision making for the enterprise: an overview of business intelligence applications. VINE, 2007, 37.4: 414-420. 115 HTML 4.01 Specification. W3C. W3C Recommendation [online]. 1999 [cit. 2013-09-12]. Dostupné z: http://www.w3.org/TR/html401/ HUSTON, Geoff a George MICHAELSON. Counting DNSSEC. Potaroo.net [online]. 2012 [cit. 2012-12- 17]. Dostupné z: http://www.potaroo.net/ispcol/2012-10/counting-dnssec.html HWANG, Junseok; ARAVAMUDHAM, Praveen. Middleware services for P2P computing in wireless grid networks. Internet Computing, IEEE, 2004, 8.4: 40-46. CHIRUVOLU, Girish; AGRAWAL, Anshul; VANDENHOUTE, Marc. Mobility and QoS support for IPv6based real-time wireless Internet traffic. In: Communications, 1999. ICC'99. 1999 IEEE International Conference on. IEEE, 1999. p. 334-338. Ingress. Ingress [online]. 2013 [cit. 2013-08-19]. Dostupné z: http://www.ingress.com/ IOnRoad. IOnRoad [online]. 2013 [cit. 2013-08-19]. Dostupné z: http://www.ionroad.com/ JAROLÍMKOVÁ, Hana. Počítačové zpracování emocí [online]. 2007 [cit. 2013-07-12]. Diplomová práce. Masarykova univerzita, Fakulta informatiky. Vedoucí práce Ivan Kopeček. Dostupné z: . JEASON, Mick. Anonymous Engages in Sony DDoS Attacks Over GeoHot PS3 Lawsuit. DailyTech [online]. 2011 [cit. 2013-09-11]. Dostupné z: http://www.dailytech.com/Anonymous+Engages+in+Sony+DDoS+Attacks+Over+GeoHot+PS3+Lawsui t/article21282.htm JOHNSON, Bobbie. Cloud computing is a trap, warns GNU founder Richard Stallman. The Guardian [online]. 2008 [cit. 2013-09-11]. Dostupné z: http://www.theguardian.com/technology/2008/sep/29/cloud.computing.richard.stallman KARPÍŠEK, Jiří. Praktický úvod do Complex Event Processing [online]. 2011 [cit. 2013-07-12]. Diplomová práce. Masarykova univerzita, Fakulta informatiky. Vedoucí práce Michal Oškera. Dostupné z: . KATO, Hirokazu; BILLINGHURST, Mark. Marker tracking and hmd calibration for a video-based augmented reality conferencing system. In: Augmented Reality, 1999.(IWAR'99) Proceedings. 2nd IEEE and ACM International Workshop on. IEEE, 1999. p. 85-94. KEITH JR, Robert O. Virtual recovery server. U.S. Patent No 8,423,821, 2013. KHAN, Arijit, et al. Neighborhood based fast graph search in large networks. In: Proceedings of the 2011 ACM SIGMOD International Conference on Management of data. ACM, 2011. p. 901-912. KHARE, Rohit; ÇELIK, Tantek. Microformats: a pragmatic path to the semantic web. In: Proceedings of the 15th international conference on World Wide Web. ACM, 2006. p. 865-866. KLAWONN, F. Prolog extensions to many-valued logics. In: Non-Classical Logics and their Applications to Fuzzy Subsets. Springer Netherlands, 1995. p. 271-289. KNOWLES, Seymour, et al. A natural language database interface for sql-tutor. 1999. 116 Konference. SuperLectures [online]. 2013 [cit. 2013-09-11]. Dostupné z: http://www.superlectures.com/cs/conferences.php KOPEČEK, Ivan, Karel PALA a Markéta STRAŇÁKOVÁ-LOPATKOVÁ. Ambiguity Problems in HumanComputer Interaction. In Universal Access in HCI. London: Lawrence Erlbaum Associates, Publishers, 2001. s. 486-489. Volume 3. ISBN 0-8058-3609-8. KOPEČEK, Ivan. Personality and Emotions - Finite State Modelling by Dialogue Automata. In Proceedings of UM 2001 Workshop on Attitudes, Personality and Emotions in User-Adapted Interaction. Bari: Universitz of Bari, 2001. s. 1-6. KOPEČEK, Ivan. Počítačové zpracování emocí: Affective computing [online]. [cit. 2011-12-04]. Dostupné z: http://www.fi.muni.cz/~kopecek/socin7_affective_computing.ppt Layar. Layar [online]. 2013 [cit. 2013-08-19]. Dostupné z: https://www.layar.com/ LICHÝ, Alexander. BYOD používá již polovina IT odborníků v Česku. CIO [online]. 2013 [cit. 2013-06- 05]. Dostupné z: http://businessworld.cz/analyzy/byod-pouziva-jiz-polovina-it-odborniku-v-cesku- 10809 LINDE, Joakim; TUCKER, Brian J. DATA TRANSFER USING THE BLUETOOTH LOW ENERGY STANDARD. U.S. Patent No 20,130,102,251, 2013. LU, Wei Jun; CUI, Bo Long; HU, Su Rong. Visualization Engineering Simulation Based on HTML5 and Cloud Computing. Advanced Materials Research, 2013, 711: 575-581. LUBBERS, Peter; ALBERS, Brian; SALIM, Frank. Creating HTML5 Offline Web Applications. In: Pro HTML5 Programming. Apress, 2010. p. 243-257. LUCKHAM, David C. The power of events. Reading: Addison-Wesley, 2002. LUCKHAM, David C.; FRASCA, Brian. Complex event processing in distributed systems. Computer Systems Laboratory Technical Report CSL-TR-98-754. Stanford University, Stanford, 1998, 28. LUNDBERG, Alan. Leverage complex event processing to improve operational performance. Business Intelligence Journal, 2006, 11.1: 55. MAGYAR, Judith. The Ubiquitous Internet of Things: Managing Cities the Smart Way. SAP [online]. 2012 [cit. 2013-09-12]. Dostupné z: http://scn.sap.com/community/business- trends/blog/2012/11/26/the-ubiquitous-internet-of-things-managing-cities-the-smart-way MATULÍK, Petr, PITNER, Tomáš. Sémantický web a jeho technologie. Zpravodaj ÚVT MU. 2004, roč. XIV,, č. 3, s. 15-17. Dostupný z WWW: . ISSN 1212-0901. MATYSKA, Luděk. Virtualizace výpočetního prostředí. Zpravodaj ÚVT MU. ISSN 1212-0901, 2006, roč. XVII, č. 2, s. 9-11. MCILRAITH, Sheila A.; SON, Tran Cao; ZENG, Honglei. Semantic web services. Intelligent Systems, IEEE, 2001, 16.2: 46-53. 117 MCLELLAN, Charles. Consumerization, BYOD and MDM: What you need to know. Zdnet [online]. 2013 [cit. 2013-06-05]. Dostupné z: http://www.zdnet.com/consumerization-byod-and-mdm-what-you- need-to-know-7000010205/ MICHAL, Černý. Rozšířená realita: od mobilního telefonu k chytrým brýlím. Root [online]. 2013 [cit. 2013-07-12]. Dostupné z: http://www.root.cz/clanky/rozsirena-realita-od-mobilniho-telefonu-k- chytrym-brylim/ MIT. MIT Media Lab: Affective Computing [online]. 2013 [cit. 2013-09-12]. Dostupné z: http://affect.media.mit.edu/ MONTOYA-WEISS, Mitzi M.; MASSEY, Anne P.; SONG, Michael. Getting it together: Temporal coordination and conflict management in global virtual teams. Academy of management Journal, 2001, 44.6: 1251-1262. MOORE, Gordon. Progress in Digital Integrated Electronics. IEEE, IEDM Tech Digest. 1975 pp.11-13. NMC Horizon Project. NMC Horizon Project | The New Media Consortium [online]. 2013 [cit. 2013-09- 11]. Dostupné z: http://www.nmc.org/horizon-project Official Moodle git projects - moodle. Moodle [online]. 2007 [cit. 2013-09-12]. Dostupné z: http://git.moodle.org/gw?p=moodle.git;a=blob;f=COPYING.txt;h=94a9ed024d3859793618152ea559 a168bbcbb5e2;hb=HEAD Open Source Initiative: Open Source Licenses [online]. [cit. 2013-09-12]. Dostupné z: http://opensource.org/licenses ORACLE. VirtualBox [online]. 2013 [cit. 2013-09-11]. Dostupné z: https://www.virtualbox.org/ PALA, Karel. Počítačové zpracování přirozeného jazyka. NLP FI MU [online]. 2000 [cit. 2012-12-27]. Dostupné z: nlp.fi.muni.cz/poc_lingv/pala_zprac.pdf PEARCE, Michael; ZEADALLY, Sherali; HUNT, Ray. Virtualization: Issues, security threats, and solutions. ACM Computing Surveys (CSUR), 2013, 45.2: 17. PETERKA, Jiří. LTE v ČR: jedno promile na opojení nestačí. Lupa [online]. 2012 [cit. 2013-09-12]. Dostupné z: http://www.lupa.cz/clanky/lte-v-cr-jedno-promile-na-opojeni-nestaci/ PETERKA, Jiří. Telefónica nasazuje IPv6 na svém xDSL. Lupa [online]. 2012 [cit. 2013-09-12]. Dostupné z: http://www.lupa.cz/clanky/telefonica-nasazuje-ipv6-na-svem-xdsl/ PRŮŠA, Jiří. IPv6 v Česku měsíc po „dni D“. Connect [online]. 2012 [cit. 2012-12-17]. Dostupné z: http://connect.zive.cz/bleskovky/ipv6-v-cesku-mesic-po-dni-d/sc-321-a-164455 RAYMOND, Eric. The cathedral and the bazaar. Knowledge, Technology & Policy, 1999, 12.3: 23-49. RUBIN, V.; STANTON, J.; LIDDY, E. Discerning emotions in texts. In: The AAAI Symposium on Exploring Attitude and Affect in Text (AAAI-EAAT). 2004. SATRAPA, Pavel. IPv6: internetový protokol verze 6. 3., aktualiz. a dopl. vyd. Praha: CZ.NIC, c2011, 407 s. CZ.NIC. ISBN 978-80-904248-4-5. 118 SCARFO, Antonio. New Security Perspectives around BYOD. In: Broadband, Wireless Computing, Communication and Applications (BWCCA), 2012 Seventh International Conference on. IEEE, 2012. p. 446-451. SEDLÁK, Jan. Internet věcí bude bilionový byznys. I pro české firmy. Connect [online]. 2013 [cit. 2013- 07-12]. Dostupné z: http://connect.zive.cz/clanky/internet-veci-bude-bilionovy-byznys-i-pro-ceske- firmy/sc-320-a-169420 SemanticDesktop.org: OSCAF/NEPOMUK Ontologies [online]. [cit. 2013-07-05]. Dostupný z WWW: http://www.semanticdesktop.org/ontologies/ SEO, Yoon Deuk; AHN, Jin Ho. Efficient NFC Tagging Pattern-Based Contents Recommendation for Museum Viewers. Applied Mechanics and Materials, 2013, 263: 2876-2880. Seriál Nerelační databáze. Zdroják [online]. 2011 [cit. 2012-09-05]. Dostupné z: http://www.zdrojak.cz/serialy/nerelacni-databaze/ SIKOS, Leslie. Web standards: mastering HTML5, CSS3, and XML. Apress, 2011. SKÁLA, Zbyněk. Nástrahy implementace BYOD politiky. System online [online]. 2012 [cit. 2013-06-05]. Dostupné z: http://www.systemonline.cz/hrm-personalistika/nastrahy-implementace-byod- politiky.htm Sleep as Android. URBANDROID TEAM. Google Play [online]. 2013 [cit. 2013-09-12]. Dostupné z: https://play.google.com/store/apps/details?id=com.urbandroid.sleep&hl=cs SLÍŽEK, David a Petr KOUBSKÝ. Petr Mára: Dnešní učitel musí žákům klást otázky, které nejde vygooglovat. Lupa [online]. 2013 [cit. 2013-09-11]. Dostupné z: http://www.lupa.cz/clanky/petr- mara-dnesni-ucitel-musi-zakum-klast-otazky-ktere-nejde-vygooglovat/ SMITH, Joshua R. (ed.). Wirelessly powered sensor networks and computational RFID. Springer, 2013. SMOLA, Martin. Seriál HTML5 a jeho zajímavé vlastnosti. Root [online]. 2012 [cit. 2012-12-04]. Dostupné z: http://www.root.cz/serialy/html5-a-jeho-zajimave-vlastnosti/ STALLMAN, Richard, et al. The GNU manifesto. 1985. Stephen Hawking. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-11]. Dostupné z: http://cs.wikipedia.org/wiki/Stephen_Hawking SWAN, Melanie . Sensor mania! The Internet of Things, wearable computing, objective metrics, and the Quantified Self 2.0. 2012. [cit. 2013-8-18]. Dostupný z WWW: [http://www.mdpi.com/2224- 2708/1/3/217/pdf]. ŠVANCARA, Josef. Emoce, motivace, volní procesy. Studijní příručka k předmětu Obecná psychologie II (prožívání, jednání), Brno, Psychologický Ústav FF MU, 2003. TERNIER, Stefaan, et al. Mobile augmented reality with audio. Supporting fieldwork of Cultural Sciences students in Florence. 2013. 119 Top Trends for 2013. IEEE Computer society [online]. 2012 [cit. 2013-09-11]. Dostupné z: http://www.computer.org/portal/web/membership/13-Top-Trends-for-2013 TSIRTSIS, George. Network address translation-protocol translation (NAT-PT). Network, 2000. ULLRICH, Johannes. Malicious Images: What's a QR Code. ISC Diary [online]. 2011 [cit. 2013-08-19]. Dostupné z: http://archive.is/20120713141653/http://isc.sans.edu/diary.html?storyid=11305 VADINSKÝ, Ondřej. Nepomuk-KDE: Sémantický desktop pro Linux. AbcLinuxu [online]. 2010 [cit. 2013- 09-11]. Dostupné z: http://www.abclinuxu.cz/clanky/nepomuk-kde-semantickydesktopprolinux VAŇKOVÁ , Jana , ČERNÝ, Michal. Úvod do počítačových sítí. Metodický portál: Články [online]. 28. 11. 2011, [cit. 2013-09-10]. Dostupný z WWW: . ISSN 1802-4785. VU, V.-T., et al. Audio-video event recognition system for public transport security. 2006. Využití QR kódů ve školství. QR - kody.cz [online]. 2012 [cit. 2013-08-19]. Dostupné z: http://www.qr- kody.cz/qr/qr-kody-skola.html WATSON, Hugh J., et al. Real-time business intelligence: Best practices at Continental Airlines. Information Systems Management, 2006, 23.1: 7. WEAVER, John V. ARCHITECTURE FOR WIRELESS COMMUNICATION AND MONITORING. U.S. Patent Application 13/005,510, 2011. Welcome to the Android Open Source Project!. GOOGLE. Android [online]. 2013 [cit. 2013-09-12]. Dostupné z: http://source.android.com/ WILLIAMS, James L. Learning HTML5 game programming: a hands-on guide to building online games using Canvas, SVG, and WebGL. Upper Saddle River, NJ: Addison-Wesley, 2012, xiii, 234 p. ISBN 978- 032-1767-363. Windows Intune. Microsoft [online]. 2013 [cit. 2013-09-12]. Dostupné z: http://www.microsoft.com/cs-cz/windows/windowsintune/pc-management.aspx WINTER, Mick. Scan me: everybody's guide to the magical world of QR codes-- barcodes, mobile devices and hyperlinking the real to the virtual. 1st print ed. Napa, Calif.: Westsong Pub., 2011, 142 p. ISBN 09-659-0003-7. WOLF, Gary. The data-driven life. The New York Times, 2010, 28. WU, Eugene; DIAO, Yanlei; RIZVI, Shariq. High-performance complex event processing over streams. In: Proceedings of the 2006 ACM SIGMOD international conference on Management of data. ACM, 2006. p. 407-418. YORK, Dan. Migrating applications to IPv6. 1st ed. Sebastopol, Calif.: O'Reilly, c2011, xxi, 34 p. ISBN 14-493-0787-6. 120 ZANDL, Patrick. Chcete změnit svět? Věnujte pozornost Internetu věcí a Velkým datům. Marigold [online]. 2013 [cit. 2013-09-12]. Dostupné z: http://www.marigold.cz/item/chcete-zmenit-svet- venujte-pozornost-internetu-veci-a-velkym-datum ZANDL, Patrick. Jak na měření?. Energomonitor [online]. 2013 [cit. 2013-09-11]. Dostupné z: http://www.energomonitor.cz/jak-na-mereni/ ZEZULA, Pavel. Future Trends in Similarity Searching. In Gonzalo Navarro and Vladimir Pestov. Proceedings of the Simimarity Search and Applications 2013. Heidelberg: Springer, 2012. s. 8 - 24, 17 s. ISBN 978-3-642-32152-8. doi:10.1007/978-3-642-32153-5_2. ZLATUŠKA, Jiří. Informační společnost. Zpravodaj ÚVT MU. ISSN 1212-0901, 1998, roč. VIII, č. 4, s. 1-6. Obrázky Augumented reality. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Augumented_reality Big Data. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Big_data BYOD Smart Solution: Implementation. Cicso [online]. 2013 [cit. 2013-09-13]. Dostupné z: http://www.cisco.com/web/solutions/trends/byod_smart_solution/implement.html Emotion. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Emotion HTML5. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/HTML5 Internet of Things. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Internet_of_Things IPv6. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001[cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/IPv6 Richard Stallman. Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Richard_Stallman Semantic web. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Semantic_Web Speech synthesis. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/Speech_synthesis VirtualBox. In: Wikipedia: the free encyclopedia [online]. San Francisco (CA): Wikimedia Foundation, 2001- [cit. 2013-09-13]. Dostupné z: http://en.wikipedia.org/wiki/VirtualBox 121 O autorovi Michal Černý vystudoval obor učitelství fyziky a výpočetní techniky pro střední školy a teologické nauky, nyní je postgraduálním studentem obecných otázek fyziky na Přírodovědecké fakultě Masarykovy univerzity. V rámci projektu CEINVE působí na FF MU jako metodik, dále působí jako lektor a fyzik na dalších fakultách téže univerzity. Přednáší předmět Digitální kompetence a podílí se na výuce předmětů jako je Kurz práce s informacemi, Kreativní práce s informacemi či New Technology in Education. Je autorem stovek článků týkajících se převážně moderních technologií, trendů a informační společnosti na serverech Lupa, Root či DSL.cz. Dlouhodobě se věnuje také problematice didaktiky informatiky a informační výchově, což ilustrují jeho četné články na RVP.cz. Napsal několik desítek recenzovaných publikací, příspěvků do sborníků či skript. Působí také jako šéfeditor webových magazínů Inspiromat.cz a Myslenkove-mapy.cz.