Generativní umělá inteligence (AI), zejména v podobě velkých jazykových modelů (LLM), představuje novou dimenzi v péči o duševní zdraví, přičemž její implementace v aplikacích a zdravotnických zařízeních otevírá možnost podpory širokého spektra uživatelů, zvláště mladých lidí. Podle Světové zdravotnické organizace (WHO, 2024) tvoří osoby ve věku 10 až 19 let významnou část světové populace, která čelí složitým sociálním výzvám a zároveň omezenému přístupu k adekvátní péči v důsledku nedostatku zdravotnických pracovníků. Zde může generativní AI sloužit nejen jako okamžitý podpůrce prostřednictvím chatbota, ale také jako nástroj pro lékaře poskytující analýzy klinických dat a doporučení.

Výzkumy ukazují, že AI-chatboti mohou zlepšit dostupnost, angažovanost a personalizaci péče, což přináší naději na revoluci v digitálním duševním zdraví. Nicméně tato technologie není bez problémů. Etické i praktické výzvy, jako je zajištění soukromí dat, omezení algoritmických předsudků, udržení klinické relevance a efektivity, a integrace lidského faktoru, jsou nezbytnými aspekty, které musí být důsledně řešeny. Rovnováha mezi přínosy a riziky je klíčová, aby byl AI nástroj v této oblasti použit odpovědně a spravedlivě.

Kvalitativní výzkumy jsou nezbytné pro pochopení, jak AI-chatboti zlepšují uživatelskou zkušenost a odstraňují bariéry v přístupu k péči. Důležité jsou také longitudinální studie a randomizované kontrolované pokusy, které pomohou identifikovat, které skupiny pacientů a jaké psychické stavy nejvíce profitují z této technologie. Kromě toho prediktivní modely využívající hluboké neuronové sítě mohou pomoci rozpoznat jedince ohrožené ztrátou motivace k léčbě či zhoršením stavu.

V praxi již existuje řada aplikací s integrovanou AI-chatbot podporou, jakými jsou například Serenity, Guided nebo Woebot, které nabízejí bezplatnou či částečně bezplatnou pomoc široké veřejnosti. Pro jejich efektivní a bezpečné nasazení je však nezbytný lidský dohled v každé fázi vývoje i provozu, který zajistí etickou správnost a klinickou validitu. Učení posilováním na základě lidské zpětné vazby umožňuje vylepšování modelů a minimalizaci chyb či škodlivých odpovědí. Zásadní je přitom zapojení různorodých skupin uživatelů, včetně pacientů, kliniků i veřejnosti, aby nástroje zůstaly inkluzivní, spravedlivé a klinicky relevantní.

Technologický pokrok vedl k vývoji různých specializovaných modelů založených na základních LLM, které jsou adaptovány pro duševní zdraví pomocí metod jako few-shot prompting či jemné ladění (fine-tuning). Kontextové rozšiřování promptů a vylepšování modelů umožňuje nejen detekovat deprese, ale i identifikovat riziko sebevražedných tendencí, což přispívá k účinnější prevenci a intervencím.

Vedle toho je nezbytné chápat, že generativní AI nenahrazuje lidského terapeuta, ale funguje jako doplněk, který může odlehčit přetíženému systému a nabídnout první linii podpory. Zároveň si uživatelé i vývojáři musí být vědomi omezení této technologie, včetně možných zkreslení, které mohou vzniknout z tréninkových dat, a rizik spojených s automatizovanými rozhodnutími bez adekvátní kontroly.

Celkově tedy generativní AI představuje významný nástroj s potenciálem transformovat péči o duševní zdraví mladých lidí, ovšem za podmínky pečlivého, etického a inkluzivního přístupu k jejímu vývoji a aplikaci. K dosažení udržitelného a bezpečného využití je klíčové průběžné hodnocení dopadů, multidisciplinární spolupráce a zapojení uživatelů do procesu tvorby a zlepšování AI nástrojů.

Jak zajistit etiku v designu AI pro duševní zdraví?

Umělá inteligence (AI) je dnes na přední hranici technologického pokroku a její aplikace v oblasti duševního zdraví jsou stále častější. Nicméně, jak rostoucí důležitost etiky v designu AI ovlivňuje tvorbu aplikací a systémů zaměřených na duševní zdraví? Etika v tomto kontextu není pouze otázkou správného chování nebo dodržování právních předpisů, ale jde také o zajištění, že technologie slouží k prospěchu lidí, zůstávají transparentní a nepoškozují uživatele.

AI, zejména velké jazykové modely (LLM), které jsou jádrem mnoha aplikací duševního zdraví, jsou vysoce výkonné, ale zároveň mají omezení, která mohou negativně ovlivnit uživatele. Například, LLM mohou vytvářet neúplné, zavádějící nebo dokonce škodlivé informace. Tato omezení jsou obzvláště závažná, pokud jde o citlivé oblasti jako je duševní zdraví, kde nesprávné poradenství může mít vážné následky.

Ve světle těchto výzev se stále častěji objevují doporučení pro etický design AI. Tato doporučení zahrnují jasné zásady pro vývoj a implementaci technologií, které respektují lidská práva a důstojnost, jakož i transparentnost procesů, které určují, jak a proč AI přijímá rozhodnutí. Je nezbytné, aby vývojáři AI brali v úvahu tyto faktory již od samotného počátku, kdy technologie vznikají.

Jedním z hlavních etických problémů, kterým čelíme při používání AI v duševním zdraví, je zajištění správnosti a bezpečnosti dat. AI může být pouze tak dobrá, jak dobrá jsou data, na kterých je trénována. Pokud jsou data neúplná nebo zkreslená, může AI přispět k reprodukci těchto zkreslení. V oblasti duševního zdraví je tento problém obzvlášť kritický, protože rozhodnutí, která AI učiní, mohou mít přímý dopad na psychiku jednotlivce.

Důležitou roli zde hraje i udržitelnost. Pokud jsou systémy AI používány pro diagnózu nebo doporučení léčby, je nezbytné zajistit, aby byly pravidelně aktualizovány a zůstaly relevantní i s ohledem na nové výzkumy a medicínské postupy. To vyžaduje nejen technickou zdatnost, ale i silnou spolupráci mezi vývojáři, lékaři a etickými odborníky.

Dalším klíčovým aspektem, který je třeba zvážit, je bezpečnost a ochrana soukromí. Aplikace AI pro duševní zdraví často pracují s citlivými informacemi, jako jsou diagnostiky, historie pacientů, či terapeutické plány. Bez adekvátní ochrany těchto dat hrozí, že uživatelé se stanou cílem kybernetických útoků nebo jejich data mohou být zneužita. Etický design musí tedy zahrnovat robustní bezpečnostní mechanismy a transparentnost v tom, jak jsou data sbírána, uchovávána a používána.

Zároveň by vývojáři AI měli mít na paměti, že technologie je pouze nástrojem, který má pomáhat uživatelům. Je tedy důležité, aby byla snadno přístupná a srozumitelná, zejména pro osoby s omezenými technologickými dovednostmi, a aby poskytovala uživatelům možnosti kontroly nad jejich vlastními daty a rozhodnutími.

V neposlední řadě by měly být všechny technologie pro duševní zdraví vytvářeny s ohledem na různorodost uživatelů. To zahrnuje jak zajištění přístupnosti pro osoby se specifickými potřebami (např. lidé s neurodiverzitou), tak i poskytnutí vhodné podpory pro různé kulturní, sociální a etnické skupiny, které mohou mít různé potřeby a očekávání.

Ačkoli se etika v designu AI stále vyvíjí, jasně se ukazuje, že odpovědný přístup k těmto technologiím je nezbytný pro jejich úspěšné využívání v oblasti duševního zdraví. Je nutné, aby vývojáři a odborníci na duševní zdraví pokračovali v diskusi o tom, jakým způsobem mohou technologie podporovat blaho jednotlivců a zároveň respektovat etické a právní normy. V tomto kontextu je klíčové, aby všechny inovace v oblasti AI byly prováděny s cílem zvýšit důvěru uživatelů a zajistit dlouhodobý přínos pro celou společnost.

Jak doporučovací systémy zlepšují přístup k duševní péči?

V oblasti duševního zdraví jsou uživatelská doporučení zásadní pro efektivní a personalizovanou péči, která zohledňuje individuální potřeby pacientů. Využití doporučovacích systémů v aplikacích pro duševní zdraví je jedním z kroků, jak zlepšit přístup k péči a optimalizovat procesy léčby. Tato technologie, založená na algoritmech, umožňuje personalizovanou terapii, která může pomoci uživatelům lépe řídit své duševní zdraví a dosáhnout plného zotavení.

Doporučené plány léčby mohou být krátkodobé nebo dlouhodobé a jejich cílem je pozitivně ovlivnit duševní stav uživatele a zvýšit pravděpodobnost úplného uzdravení. Krátké, mikro-intervence prostřednictvím digitálních kanálů umožňují uživatelům vytvářet si vlastní terapeutické sezení (například krátké cvičení vděčnosti nebo dechová cvičení zaměřená na zvyšování sebereflexe). Když jsou uživatelé schopni si nastavit vlastní terapii a kombinovat různé druhy terapií do jednoho katalogu, zvyšuje to jejich odpovědnost a pocit kontroly nad vlastním zdravím.

Důležitou součástí těchto aplikací je sledování pokroku a analýza času, která umožňuje uživatelům průběžně sledovat svůj vývoj a v budoucnu sestavit na míru šité plány terapie. Bez takového systému by nová generace duševní péče mohla čelit problémům s orientací v nabídce terapií a aplikací, což by vedlo k vysoké míře odchodu uživatelů z platformy. Uživatelé by čelili zahlcení informacemi a potížím s připojením k odpovídajícím terapeutickým aplikacím nebo digitálním lékárnám.

Významným faktorem při návrhu doporučovacího systému je důkladné vyhodnocení algoritmů a závažnosti onemocnění. Například aplikace pro duševní zdraví, jako je Ginger, se zaměřují na vysoce personalizovaný obsah, který lze snadno přizpůsobit novým uživatelům prostřednictvím více než 200 klinicky ověřených karet, které obsahují cvičení mindfulness, psychoterapeutické vzdělávání, meditace a další nástroje, jež lze využít v čase mezi dvěma až deseti minutami. Tento obsah je nastaven tak, aby byl snadno přístupný a použitelný pro uživatele, kteří hledají pomoc v náročných obdobích.

Aplikace pro duševní zdraví rovněž využívají konverzační doporučení, která jsou generována na základě interakcí uživatele s koučem. Tyto doporučení se zaměřují na semantickou podobnost mezi textem v konverzaci a popisem terapeutického obsahu, což zajišťuje vysoce personalizované rady. Tento přístup vede k vyšší míře zapojení uživatelů, kteří se s terapeutem aktivně zapojují do konverzací a používají aplikaci déle než 60 dní.

Doporučení na základě konverzací jsou tedy dynamická a aktualizují se v reálném čase podle vývoje uživatelských interakcí, což přispívá k lepší angažovanosti a dlouhodobému efektu aplikací. Kromě těchto metod existují i náhodná doporučení, která kombinují prvky obou výše uvedených přístupů, a tím zajišťují širší spektrum rad a nástrojů, které mohou uživatelům pomoci.

Nejdůležitějšími kategoriemi doporučení, které tyto aplikace nabízí, jsou doporučení na základě onboardingových otázek (kdy jsou uživatelé dotazováni na své pocity a životní situaci), konverzační doporučení, a náhodná doporučení, která kombinují oba přístupy. Každý z těchto přístupů má své výhody a vhodnost v různých fázích užívání aplikace, ať už při prvním kontaktu s uživatelem, nebo po delší interakci s terapeutickým koučem.

Doporučovací systémy, které používají metody jako kolaborativní filtrování (CF), umožňují poskytovat doporučení na základě minulých hodnocení uživatelů. Tento přístup je velmi účinný v případě, že existují předchozí hodnocení a uživatelské interakce, které mohou sloužit jako základ pro personalizovaná doporučení. Například algoritmy jako k-nearest neighbors nebo metody modelového filtrování, jako je singular value decomposition (SVD), mohou přispět k vytvoření efektivních a na míru šitých plánů péče, což je nezbytné pro uživatele hledající konkrétní a relevantní terapii.

Přítomnost různých typů doporučovacích systémů (od memory-based po model-based metody) umožňuje poskytovatelům duševní péče vytvářet efektivní a flexibilní platformy, které jsou schopné se přizpůsobit specifickým potřebám každého uživatele, čímž zvyšují šance na úspěšnou léčbu a zlepšení celkového duševního zdraví.