Python se stal nepostradatelným nástrojem v oblasti data science díky své flexibilitě, široké podpoře knihoven a schopnosti efektivně zvládat komplexní úkoly analýzy dat. Tento jazyk umožňuje realizaci celého pracovního postupu data science – od načítání dat, přes jejich analýzu, až po vizualizaci výsledků. V této kapitole se podíváme na to, proč je právě Python tak silným nástrojem pro tento obor.

V současnosti je Python považován za jeden z nejvýkonnějších nástrojů pro práci s daty. Jeho hlavní výhodou je obrovská podpora knihoven třetích stran, které umožňují rychlé a efektivní provádění matematických výpočtů, statistických analýz a strojového učení. Python je přístupný i pro začátečníky, což umožňuje jeho široké využití v různých oblastech, od akademického výzkumu až po komerční aplikace.

V oblasti data science je Python mnohem víc než jen programovací jazyk. Python je univerzální nástroj, který podporuje různé programovací paradigmy, jako je funkcionální, imperativní, objektově orientované a procedurální programování. Tato flexibilita je klíčová pro efektivní práci s daty, protože umožňuje vybrat ten nejlepší přístup pro konkrétní úkol.

Funkcionální programování v Pythonu je ideální pro analýzu dat, protože umožňuje manipulaci s daty bez vedlejších účinků a snadněji se implementují paralelní výpočty. Imperativní přístup naopak umožňuje snadno upravovat stav programu, což je nezbytné při práci s datovými strukturami. Objektově orientované programování přináší do Pythonu výhody při práci s komplexními aplikacemi, kde se využívají koncepty jako enkapsulace a polymorfismus, což umožňuje lepší organizaci kódu a jeho opětovné použití.

Důležitým faktorem pro výběr Pythonu je i jeho rozsáhlá knihovna pro vědecké a statistické výpočty, jako jsou NumPy, Pandas, Matplotlib a SciPy. Tyto knihovny poskytují hotové nástroje pro statistickou analýzu, vizualizaci dat a strojové učení, což výrazně zkracuje dobu potřebnou pro vývoj složitých analytických aplikací.

Přechod od tradičního pojetí data scientistů jako „geeků“, kteří se uzavírají v matematických vzorcích, k modernímu pohledu na data science jako integraci vývoje aplikací s analýzou dat, je zásadním momentem v tomto oboru. Aplikace, které dnes vznikají, se čím dál více zaměřují na schopnost „učení“ – například rozpoznávání vzorců v datech a generování nových informací na základě starších dat. To je klíčové pro rozvoj aplikací umělé inteligence, které se začínají integrace do každodenního života a které mají schopnost poskytovat inovativní řešení v oblastech jako zdravotnictví, vzdělávání a robotika.

Společně s tímto rozvojem roste i potřeba aplikací, které nejen analyzují data, ale také je vytvářejí na základě predikcí. Python zde hraje nezastupitelnou roli jako jazyk, který umožňuje snadnou tvorbu a trénování modelů strojového učení, jako jsou regresní analýzy, rozhodovací stromy a neuronové sítě.

Pokud jde o praktické využití Pythonu v rámci data science, začínající uživatelé často začínají pracovat v interaktivních prostředích jako Jupyter Notebook, které umožňují snadné vykonávání kódu, vizualizaci výsledků a interaktivní analýzu dat v reálném čase. Tato prostředí výrazně zjednodušují práci s daty, což je obzvlášť cenné při vývoji komplexních analytických nástrojů. Kód je přehledně rozdělen do buněk, které lze spouštět samostatně, a umožňuje to tak uživateli soustředit se na konkrétní úkoly v rámci širšího procesu analýzy.

Pro každý analytický úkol je třeba mít přístup k relevantním datům. V Pythonu je snadné načítat data z různých zdrojů, jako jsou soubory CSV, databáze, API nebo web scraping. Po načtení dat se často provádí předzpracování, aby byla data čistá a připravená na analýzu. To může zahrnovat odstranění chybějících hodnot, normalizaci nebo transformaci dat.

Jakmile jsou data připravena, může být aplikován analytický model, například lineární regrese, který je jedním z nejjednodušších a nejúčinnějších nástrojů pro prediktivní analýzu. Python nabízí jednoduchý a efektivní způsob, jak implementovat tento model s použitím několika příkazů, což je velkou výhodou pro rychlou prototypizaci a testování hypotéz.

Po aplikování modelu je důležité vyhodnotit výsledky analýzy. Python umožňuje generování různých typů výstupů, od základních statistických přehledů po složité vizualizace. Výsledky mohou být exportovány do formátu, který je snadno použitelný pro další analýzy nebo pro prezentaci zúčastněným stranám. Pro výstupy jako jsou koeficienty v regresní analýze nebo predikce modelu lze využít grafy, které umožňují vizuálně pochopit vztahy mezi proměnnými.

Python tedy nabízí komplexní a flexibilní přístup k analýze dat, který je snadno přístupný nejen odborníkům, ale i lidem bez hlubšího technického zázemí. K jeho největším přednostem patří široká podpora knihoven a nástrojů pro práci s daty, efektivita při zpracování a analýze velkých datových souborů a široká komunitní podpora.

Jak zobrazit distribuce pomocí histogramů a dalších grafů

Histogramy jsou nástrojem pro kategorizaci dat, kde se data rozdělí do intervalů, které se označují jako "koše" (bins). Každý koš obsahuje podmnožinu datového rozsahu, a histogram následně zobrazuje počet položek v každém koši. Tento způsob zobrazení umožňuje vidět, jak jsou data rozložena, a jak se hodnoty vyvíjejí od jednoho intervalu k dalšímu. V mnoha případech je výsledek ve formě křivky, například zvonovité křivky, což je často signál normálního rozdělení. Následující příklad ukazuje, jak vytvořit histogram s náhodně generovanými daty:

python
import numpy as np import matplotlib.pyplot as plt x = 20 * np.random.randn(10000) plt.hist(x, 25, range=(-50, 50), histtype='stepfilled', align='mid', color='g', label='Test Data') plt.legend() plt.title('Step Filled Histogram') plt.show()

V tomto případě jsou vstupní hodnoty posloupností náhodných čísel. Distribuce těchto čísel by měla vykazovat tvar typické zvonovité křivky. Abychom mohli vykreslit histogram, je nutné poskytnout alespoň jednu posloupnost hodnot (v tomto případě x). Druhý argument určuje počet košů, které se použijí k vytvoření intervalů dat. Výchozí hodnota je 10. Pomocí parametru range se zaměřujeme na relevantní data a vylučujeme jakékoliv extrémní hodnoty, které by mohly zkreslit výsledek. Můžeme použít různé typy histogramů, jako je sloupcový graf, sestavený sloupcový graf nebo graf s krokovými výplněmi, jak ukazuje náš příklad. Výtvor může mít také vertikální orientaci, která je ve výchozím nastavení.

Pokud chcete graf vylepšit, můžete použít parametry, jako je align, který určuje zarovnání jednotlivých sloupců podél základní čáry, nebo color, jenž mění barvu sloupců. Parametr label je využíván při tvorbě legendy grafu. Histogramy tak umožňují snadno vizualizovat distribuci čísel a porozumět jejich charakteristikám.

Dalším užitečným nástrojem pro vizualizaci dat je boxplot, který umožňuje zobrazení datových skupin prostřednictvím kvartilů, tj. tří bodů, které rozdělují soubor dat na čtyři rovnoměrné části. Boxplot může také obsahovat čáry, nazývané "vousy" (whiskers), které indikují data mimo horní a dolní kvartil. Vzdálenosti uvnitř boxplotu pomáhají ukázat, jak jsou data rozptýlena a zda jsou šikmá nebo symetrická.

Příklad pro vytvoření boxplotu s náhodnými daty vypadá takto:

python
import numpy as np import matplotlib.pyplot as plt spread = 100 * np.random.rand(100) center = np.ones(50) * 50 flier_high = 100 * np.random.rand(10) + 100 flier_low = -100 * np.random.rand(10) data = np.concatenate((spread, center, flier_high, flier_low)) plt.boxplot(data, sym='gx', widths=.75, notch=True) plt.show()

Tento příklad generuje data pomocí různých technik: spread obsahuje náhodná čísla mezi 0 a 100, center poskytuje hodnoty přímo uprostřed rozsahu 50, a flier_high a flier_low simulují extrémní hodnoty (outliers). Výstup ukáže tři kvartily v podobě boxu, přičemž červená čára uprostřed boxu představuje medián. Vousy ukazují horní a dolní limity, a extrémní hodnoty jsou zobrazeny jako zelené křížky. Parametry jako sym, widths a notch umožňují ovládat vzhled boxplotu, například velikost boxu nebo tvar.

Pro analýzu více rozměrných dat je efektivní použití scatterplotů, které ukazují shluky dat místo trendů nebo jednotlivých hodnot. Scatterploty jsou užitečné pro identifikaci vzorců ve vícerozměrných datech. V následujícím příkladu ukážeme, jak vytvořit scatterplot s náhodnými daty:

python
import numpy as np import matplotlib.pyplot as plt x1 = 5 * np.random.rand(40) x2 = 5 * np.random.rand(40) + 25 x3 = 25 * np.random.rand(20) x = np.concatenate((x1, x2, x3)) y1 = 5 * np.random.rand(40) y2 = 5 * np.random.rand(40) + 25 y3 = 25 * np.random.rand(20) y = np.concatenate((y1, y2, y3)) plt.scatter(x, y, s=[100], marker='^', c='m') plt.show()

Tento příklad generuje náhodné hodnoty pro souřadnice x a y. Scatterplot umožňuje zobrazení vzorců mezi dvěma proměnnými, což je užitečné pro identifikaci shluků, trendů nebo výjimek ve více rozměrných datech.

Pokročilá vizualizace scatterplotů umožňuje další analýzu, zejména pokud jde o zobrazení skupin v datech. Barvy mohou sloužit jako třetí rozměr a umožnit tak snadné rozlišení mezi jednotlivými skupinami dat. Následující příklad ukazuje, jak použít barvy pro označení různých skupin v scatterplotu:

python
import numpy as np import matplotlib.pyplot as plt x1 = 5 * np.random.rand(50) x2 = 5 * np.random.rand(50) + 25 x3 = 30 * np.random.rand(25) x = np.concatenate((x1, x2, x3)) y1 = 5 * np.random.rand(50) y2 = 5 * np.random.rand(50) + 25 y3 = 30 * np.random.rand(25) y = np.concatenate((y1, y2, y3)) color_array = ['b'] * 50 + ['g'] * 50 + ['r'] * 25 plt.scatter(x, y, s=[50], marker='D', c=color_array) plt.show()

Tento příklad ukazuje, jak přiřadit různé barvy k různým skupinám dat. V tomto případě je první skupina modrá, druhá zelená a třetí červená, což usnadňuje identifikaci jednotlivých skupin v rámci scatterplotu.

Pro správné pochopení těchto technik je důležité si uvědomit, že každý typ grafu má své specifické využití. Histogramy jsou skvělé pro zobrazení distribuce jednotlivých hodnot v datovém souboru, boxploty pro identifikaci kvartilů a potenciálních outliers a scatterploty pro zobrazení komplexních vzorců mezi vícerozměrnými daty. Je rovněž nezbytné ovládat možnosti přizpůsobení těchto grafů, jako je změna barev, tvarů, velikosti a dalších parametrů, aby výstupy byly co nejvíce informativní a srozumitelné pro uživatele.

Jak správně využívat data pro rozhodování a monitorování v organizacích

Data a informace jsou základními nástroji pro efektivní řízení a rozhodování v dnešních organizacích. Avšak i při obrovském množství dostupných dat je klíčové, jaký je jejich obsah a v jakém okamžiku jsou k dispozici. V organizacích, kde je přístup k rozsáhlým datům snadný, je možné rychleji a efektivněji přijímat informovaná rozhodnutí. Manažeři a vedoucí pracovníci již nečekají na závěr fiskálního čtvrtletí, aby zjistili, jak dopadly výsledky jejich rozhodnutí. Informace jsou k dispozici prakticky v reálném čase, což výrazně zlepšuje reakční dobu a kvalitu rozhodování. To vše závisí na správnosti a včasnosti dat, která mají rozhodovatelé k dispozici.

Velké množství zastaralých nebo nepravdivých dat může mít negativní dopad na rozhodování, někdy dokonce fatální. Špatná data mohou být horší než žádná data. Rozhodnutí založená na chybných informacích mohou vést k chybám, které ovlivní nejen výsledky organizace, ale mohou vést i k ukončení pracovního poměru nebo zániku celé firmy. Proto je nutné zajistit, aby data, která používáme k rozhodování, byla nejen dostatečně kvalitní, ale také aktuální.

Sběr a analýza dat jsou v každé organizaci neustálými procesy, které přímo ovlivňují to, jak organizace funguje. Mnozí lídři by chtěli mít k dispozici všechny potřebné informace v okamžiku, kdy je potřebují. Ať už jde o kvantitativní data (číselné hodnoty) nebo kvalitativní data (popisné informace), vše závisí na tom, jakým způsobem je měříme a jaký význam jim přiřadíme. Například popis letu letadlem může být vyjádřen buď v kvantitativních hodnotách (výška 35 000 stop, rychlost 514 mph), nebo kvalitativně (let nebyl turbulentní, jídlo bylo chutné). Každý z těchto popisů bude mít jiný význam pro různé publikum, ale oba mohou být stejně hodnotné, pokud jsou použity ve správném kontextu.

Měření je klíčové pro monitorování a následné řízení procesů v organizaci. Cílem je nejen sbírat data, ale také je pravidelně vyhodnocovat. Pokud například výrobní linka v továrně vyrábí 100 kusů za hodinu, monitorování nám umožní zjistit, zda tento cíl je skutečně dosažen, nebo jestli je potřeba zasáhnout. Umožňuje to nejen kontrolu nad výkonností, ale také stabilitu a spolehlivost celé organizace. V rámci monitorování se vytvářejí různé reporty a přehledy, které informují o aktuálním stavu. Tato data mohou být následně použita k analýze odchylek a předvídání možných problémů.

Monitoring není pouze o sběru dat, ale i o jejich vyhodnocení a kontrole kvality. Úspěšné monitorování vyžaduje stanovení kvalitativních a kvantitativních měřítek, na základě kterých je možné hodnotit data v čase. Průběžné monitorování kvality dat umožňuje odhalit problémy dříve, než se stanou kritickými, což dává organizaci možnost reagovat včas a efektivně. Například sledování úplnosti a přesnosti dat může odhalit nesrovnalosti, které by jinak mohly vést k nesprávným rozhodnutím.

Pro správné řízení dat je nezbytné mít dobře nastavený systém pro správu a analýzu informací. To zahrnuje sběr, zpracování a následnou analýzu dat z různých zdrojů. Ti, kdo jsou odpovědní za správu dat, musí rozumět potřebám organizace a vědět, jaká data mají skutečnou hodnotu. Analýza dat je klíčová pro získání cenných poznatků, které mohou ovlivnit budoucí rozhodování. Tyto poznatky, tedy "insights", by měly být komunikovány způsobem, který je vhodný pro různé cílové skupiny ve firmě, a to jak na úrovni manažerů, tak i operativních pracovníků.

V tomto procesu sehrává důležitou roli i znalostní management. Umožňuje efektivní distribuci informací mezi zaměstnanci tak, aby byly dostupné pro každého, kdo je potřebuje. Ať už jde o strategické rozhodování na nejvyšší úrovni, nebo o operativní rozhodování na úrovni jednotlivých pracovníků, správně spravované a přístupné informace jsou klíčem k úspěchu.

Pokud jsou data správně využívána v rámci měření, monitorování a analýzy, mohou přinést hodnotné poznatky, které pomohou organizaci nejen k lepšímu rozhodování, ale i k udržení konkurenceschopnosti na trhu.

Co je to data lake a jak ho správně navrhnout pro dlouhodobý úspěch?

Při pokusu o pochopení konceptu data lake, můžete se setkat s mnoha otázkami. Místo toho, abyste se prokousávali různými, někdy i protichůdnými definicemi a terminologiemi, je nejlepší představit si data lake jako pečlivě navržené a logicky centralizované prostředí, které je vysoce škálovatelné a naplněné různými typy analytických dat. Tato data pocházejí jak z interních, tak z externích zdrojů a mohou mít různé latence. Data lake se stává hlavním místem, kam směřují analytické nástroje pro získávání poznatků a datových insightů pro vaši organizaci.

Základem úspěchu data lake je jeho pevná a solidní architektura, která musí být navržena tak, aby podporovala dlouhodobý růst a rozšiřování. Data lake není jen o hromadění obrovských objemů dat do jedné složky. Aby bylo možné neustále přidávat nové formy a typy dat, nové technologie a analytické nástroje, musí být celá infrastruktura pečlivě naplánována a postavena na silných základech.

Při vytváření data lake je kladeno důraz na dodržování standardů a osvědčených praktik pro ingestování dat, jejich ukládání, přenos mezi jednotlivými komponentami a doručování uživatelům. Je nutné minimalizovat používání dočasných řešení a obcházek, které by v konečném důsledku mohly oslabit celý systém. Také je kladeno důraz na neustálé plnění technických metrik, jako jsou doby načítání dat, výměna dat a doba odezvy při přístupu k těmto datům.

Představte si resort, který staví mola, restaurace a další struktury podél velkého jezera. Nebylo by rozumné dát návštěvníkům kladiva, hřebíky a prkna a nechat je stavět bez podrobných plánů a technických diagramů. Podobně i data lake vyžaduje pečlivý plán, od první položky dat až po celý systém, který bude schopen podporovat růst v dlouhodobém horizontu.

Data lake je definován jako logicky centralizované úložiště dat. Můžete si ho představit jako jednotné místo pro vaše data, na rozdíl od situace, kdy jsou data rozdělena mezi různé databáze. Ve skutečnosti však, i když je data lake logicky centralizován, data jsou fyzicky decentralizována a distribuována mezi různé servery. Služby jako Amazon S3, Microsoft Azure Data Lake Storage (ADLS) nebo Hadoop Distributed File System (HDFS) spravují tuto distribuci dat a skrytě zajišťují jejich správu na serverové úrovni, aniž by to ovlivnilo uživatele, kteří přistupují k datům jako k celku.

Jak velký může být váš data lake? Odpověď na tuto otázku je možná nejasná, protože velikost data lake se může neustále zvětšovat bez výrazného omezení. Cloudová řešení pro data lake vám teoreticky nabízejí neomezenou škálovatelnost. Nové servery a zařízení pro ukládání dat (disky, SSD) mohou být přidávány podle potřeby a služby spravující data se postarají o jejich integraci a optimalizaci. Takto můžete svůj data lake rozšířit od stovek terabajtů až po petabajty, exabajty a zettabajty, aniž byste museli začít od začátku.

Většina dnešních data lake je postavena v cloudových prostředích, jako jsou Amazon Web Services (AWS) nebo Microsoft Azure. Cloud computing neustále roste na popularitě a je pravděpodobné, že trend cloudových data lake se v budoucnu nezmění. Tyto platformy neustále rozšiřují své datová centra a zlepšují služby pro správu dat, což znamená, že problémy se škálovatelností jsou minimalizovány.

Data lake není jen o samotné vodě – je to celé prostředí, které zahrnuje nejen úložiště dat, ale i mechanismy pro pohyb dat, katalogy pro sledování, kde se jaká data nacházejí, a také metadaty, která popisují vztahy mezi daty. Data lake také zahrnuje správu hlavních dat (master data management), což zajišťuje jednotné definice a obchodní pravidla pro klíčová data pocházející z různých aplikací a systémů.

Další součástí data lake jsou služby pro monitorování kvality dat, správu výkonnosti, a také pro účtování používání dat. Tím se zajistí, že uživatelé mohou snadno přistupovat k datům včas a v požadované kvalitě, zatímco organizace má přehled o nákladech spojených s jejich použitím.

Data lake může obsahovat různé typy dat: strukturovaná, nestrukturovaná a polo-strukturovaná data. Každý z těchto typů dat je důležitý a musí být správně zpracován, aby bylo možné využít jejich plný potenciál. Strukturovaná data zahrnují tabulky a databáze, zatímco nestrukturovaná data mohou být například textové soubory, obrázky nebo videa. Polo-strukturovaná data jsou ta, která mají určitou strukturu, ale nejsou tak striktní jako strukturovaná (například JSON nebo XML).

Pochopení těchto základních principů a výzev při vytváření a správě data lake je klíčové pro úspěšnou implementaci a efektivní využívání těchto systémů ve vaší organizaci. Jakákoli změna v rozsahu dat, způsobu jejich zpracování nebo v analytických nástrojích vyžaduje pečlivé plánování a nepřetržitou optimalizaci systému.

Jak efektivně používat Tableau pro analýzu dat a vizualizace

Tableau je vynikající nástroj pro analýzu dat a vytváření vizualizací, který umožňuje nejen práci s jediným pracovním listem, ale i širší spolupráci a sdílení dat mezi různými uživatelskými skupinami. Když mluvíme o Tableau, máme na mysli celou řadu nástrojů pro tvorbu a sdílení analytických přehledů, mezi které patří i pracovní listy, dashboardy a příběhy. Tento přehled by měl pomoci pochopit, jak efektivně využívat Tableau pro pokročilé analýzy, ale i pro jednoduchou tvorbu vizuálně přitažlivých reportů.

Představte si, že chcete analyzovat komplexní sadu dat – například finanční výkony různých oddělení v rámci jedné společnosti. Místo toho, abyste vytvářeli několik oddělených pracovních listů pro každé oddělení, můžete spojit různé pohledy na data do jednoho přehledu. Tento proces se nazývá vytvoření dashboardu. Dashboardy vám umožňují vytvářet komplexní vizualizace, které kombinují více pohledů na data z různých pracovních listů.

V Tableau se používá běžná terminologie pro soubory a strukturu, kterou známe i z jiných kancelářských balíků – máme zde pracovní sešit a pracovní listy. Pracovní sešit (workbook) může obsahovat několik pracovních listů (sheets), a to buď ve formě jednotlivých pracovních listů, dashboardů nebo příběhů. Pracovní list je základní jednotkou, která zobrazuje jediný pohled na data. Dashboard pak sdružuje více pracovních listů, což umožňuje sledovat data z různých perspektiv. Příběh je sekvence pracovních listů nebo dashboardů, která vytváří ucelený narativ, který nemůže být vyjádřen pouze na jednom listu.

Pro tvorbu nových pracovních listů, dashboardů nebo příběhů v Tableau stačí kliknout na příslušný ikonku v dolní části rozhraní. Tlačítka + (plus) umožňují vytvořit nový pracovní list, nový dashboard nebo nový příběh. Pokud chcete přejmenovat existující pracovní list, stačí dvakrát kliknout na záložku a zadat nový název. Při mazání pracovního listu je třeba pamatovat na několik podmínek. Například, pokud je pracovní list součástí dashboardu nebo příběhu, nemůžete jej jednoduše smazat, ale musíte jej nejprve skrýt nebo zrušit jeho použití v těchto sestavách.

Tabule také umožňuje velmi snadno publikovat vaše analýzy a vizualizace. K tomu slouží funkce "Sdílet sešit s ostatními", která umožňuje nahrát váš pracovní sešit na různé platformy, jako je Tableau Public, Tableau Server nebo Tableau Cloud. Tento krok umožňuje veřejné sdílení vaší práce s ostatními uživateli a kolegy, což je užitečné pro spolupráci na analýzách dat.

Pokud jde o vytváření dashboardů, Tableau nabízí několik různých způsobů, jak tyto vizualizace navrhnout. Lze začít kliknutím na tlačítko Dashboard v horní části rozhraní nebo použít ikonu pro vytvoření nového dashboardu přímo v panelu nástrojů. Jakmile vytvoříte nový dashboard, zobrazí se vám pracovní prostor, do kterého můžete přetahovat jednotlivé pracovní listy. Každý dashboard můžete také přizpůsobit podle velikosti a typu zařízení, pro které je určen – ať už pro desktop nebo mobilní zařízení.

Pokud jde o přizpůsobení dashboardu, je zde mnoho možností pro vylepšení vizualizace. Můžete přidávat různé objekty, jako jsou textové rámečky, obrázky, grafy nebo tlačítka pro filtrování dat. Tyto objekty můžete snadno umístit na panel dashboardu, což vám umožní vytvářet interaktivní a vizuálně atraktivní analytické nástroje, které budou přehledné pro uživatele.

Pro skutečně pokročilé vizualizace v Tableau je klíčové porozumět principům storytellingu. Příběh v Tableau není pouze sled různých datových pohledů, ale soubor vzorců, které vám umožňují prezentovat data tak, aby vyprávěla konkrétní narativ. Například můžete začít s celkovým přehledem o výkonu společnosti a postupně se přesouvat k detailnějším analýzám jednotlivých oddělení, což bude mít silnější vliv na rozhodování managementu.

Tableau je silný nástroj pro analýzu dat a tvorbu vizualizací, ale skutečná síla tohoto nástroje spočívá v jeho schopnosti umožnit spolupráci a sdílení informací. Ať už se rozhodnete vytvořit jednoduchý pracovní list, komplexní dashboard nebo vyprávět příběh, Tableau vám dává všechny nástroje pro efektivní analýzu a prezentaci dat.