Predstavte si, že otvoríte aplikáciu, nahráte výsledky z krvi, správu z vyšetrenia a pridáte dáta z hodiniek či z aplikácie na počítanie kalórií. A do pár sekúnd dostanete vysvetlenie „po lopate“, čo znamenajú zvýšené hodnoty, na čo sa opýtať lekára a čo si všímať v najbližších týždňoch. Pre mnohých ľudí to znie ako splnený sen. Presne na túto predstavu teraz cieli OpenAI – v USA spúšťa novú funkciu ChatGPT Health, ktorá dokáže analyzovať zdravotné záznamy a prepájať ich s údajmi z populárnych zdravotných aplikácií.
Zároveň však už pri štarte zaznieva hlasné „pozor“. Aktivisti a odborníci na súkromie upozorňujú, že zdravotné dáta patria k najcitlivejším informáciám vôbec – a ak sa raz dostanú do nesprávnych rúk, následky môžu byť vážne.
Čo je ChatGPT Health a prečo o tom zrazu hovoria všetci
OpenAI predstavila ChatGPT Health ako špecializované prostredie v ChatGPT zamerané na zdravie a wellbeing. Používateľom umožní:
- nahrať zdravotnú dokumentáciu (napríklad správy z vyšetrení či výsledky testov),
- prepojiť dáta z aplikácií ako Apple Health, Peloton či MyFitnessPal,
- pýtať sa konkrétnejšie otázky a dostať odpovede viac „na mieru“ podľa vlastných údajov.
OpenAI pritom tvrdí, že funkcia má poskytnúť relevantnejšie a personalizovanejšie poradenstvo, no zároveň zdôrazňuje, že nie je určená na diagnostiku ani liečbu a má „podporovať, nie nahrádzať lekársku starostlivosť“.
Najsilnejším argumentom OpenAI je fakt, že ľudia sa už dnes masívne pýtajú AI na zdravie: podľa firmy sa ChatGPT každý týždeň pýta na zdravie a pohodu viac než 230 miliónov ľudí. Práve tento dopyt mal byť dôvodom, prečo vzniklo samostatné „zdravotné“ prostredie s väčším dôrazom na ochranu citlivých údajov.
„Zdravotné čety budú oddelené“: OpenAI sľubuje prísnejšie súkromie
Kľúčovým bodom celej novinky je súkromie – a OpenAI to dobre vie. V blogu aj v mediálnych výstupoch firma uvádza, že konverzácie v ChatGPT Health majú byť uložené oddelene od ostatných chatov a citlivé údaje nemajú byť použité na trénovanie AI modelov.
Jednoducho povedané: ak sa v bežnom chate rozprávate o práci a inde v Health riešite diagnózu, tieto svety sa nemajú „miešať“. Navyše by malo byť možné dáta zmazať a prepojené aplikácie kedykoľvek odpojiť.
Znie to upokojujúco – ale kritici hovoria, že pri zdravotných údajoch nestačí dobrý pocit. Potrebujete veľmi konkrétne záruky.

ChatGPT namiesto návštevy psychológa, odborníci varujú pred rizikami emocionálnej podpory od AI
Aktivisti varujú: pri zdravotných dátach sa chyba neodpúšťa
Andrew Crawford z americkej neziskovej organizácie Center for Democracy and Technology, ako uvádza portál BBC, upozornil, že je „kľúčové“ zachovať dôsledné záruky pre ochranu zdravotných informácií. Ako zdôraznil, zdravotné údaje patria medzi najcitlivejšie informácie, ktoré môžu ľudia zdieľať, a musia byť chránené.
Dôležitý je aj kontext: OpenAI čoraz častejšie testuje možnosti nových obchodných modelov a na trhu rastie konkurencia. Práve preto sa v pozadí objavuje otázka, ktorú si ľudia prirodzene položia: Komu budú tieto dáta v budúcnosti „užitočné“? A dá sa vôbec garantovať, že ich nikto nikdy nezneužije?
Crawford navyše pripomína, že v USA nie je ochrana dát nastavená tak jednotne ako napríklad v Európe. Ak si firma nastaví pravidlá zle alebo príliš voľne, môže to podľa neho citlivé informácie reálne ohroziť.
Prečo to zatiaľ nie je v Európe (a ani na Slovensku)
Ďalšia zaujímavá vec: ChatGPT Health je zatiaľ spustený v USA a OpenAI ho najprv sprístupní len malej skupine prvých používateľov, zároveň otvorila čakaciu listinu.
V Európskom hospodárskom priestore, vo Švajčiarsku a vo Veľkej Británii funkcia zatiaľ dostupná nie je – dôvodom majú byť prísnejšie pravidlá pre spracovanie a ochranu osobných údajov.
Pre Slovensko to znamená jediné: ak sa novinka raz dostane aj k nám, bude sa musieť popasovať s reguláciami a otázkami, ktoré zďaleka nie sú len technické.
Slovenskí odborníci: AI môže pomôcť, ale nesmie prekročiť hranice
Zaujímavé je, že niektorí slovenskí odborníci vidia v podobných nástrojoch veľký potenciál – zároveň však veľmi jasne pomenúvajú limity.
Adriana Škriniarová, spoluautorka projektu Agapé Senior Park, upozorňuje najmä na praktickú stránku: pacienti a rodiny často netápajú preto, že by situácia bola beznádejná, ale preto, že informácie sú neprehľadné:
„U nás v zariadení denne vidíme, aké dôležité je, aby senior aj jeho blízki naozaj rozumeli tomu, čo sa s jeho zdravím deje a prečo sa prijímajú konkrétne rozhodnutia. Veľká časť neistoty totiž nevzniká zo samotnej diagnózy, ale z toho, že informácie sú neprehľadné alebo nezrozumiteľné. Práve tu môžu nástroje umelej inteligencie, ktoré vedia preložiť lekárske správy a zdravotné údaje do zrozumiteľnej reči, priniesť veľkú pomoc. Ak dokážu vytvoriť most medzi pacientom, rodinou a lekárom (a nie ho nahradiť), majú skutočný zmysel. Zároveň však v praxi veľmi citlivo vnímame aj hranice, ktoré nastavuje zákon – dnes napríklad často nemôžeme o zdravotnom stave informovať ani rodinu bez súhlasu klienta. Práve preto bude dôležité, aby podobné technológie fungovali v súlade s platnou legislatívou a chránili dôveru, ktorú do nás seniori a ich blízki vkladajú.“
Podobne to vníma aj Gabriel Vanya zo špecializovanej nemocnice FBLR Vitalita v Lehniciach. Zdôrazňuje, že pri niektorých diagnózach môžu byť „detaily“ doslova rozhodujúce – no bezpečnosť dát musí byť absolútna:
„Ako zdravotníci vnímame potenciál umelej inteligencie v analýze zdravotných dát a v podpore personalizovanej starostlivosti, najmä v oblasti rehabilitácie po cievnych mozgových príhodách, kde rozhodujú detaily, kontinuita a presné sledovanie pokroku pacienta. Zároveň však platí, že zdravotné záznamy patria k najcitlivejším osobným údajom a ich spracovanie musí byť absolútne bezpečné, transparentné a pod prísnou odbornou kontrolou. AI môže byť cenným pomocníkom pri orientácii v dátach či edukácii pacienta, nikdy však nemôže nahradiť klinické rozhodovanie, osobný kontakt a komplexné posúdenie zdravotného stavu lekárom a terapeutickým tímom. Ak by sa podobná funkcia zavádzala aj na Slovensku, bolo by nevyhnutné, aby fungovala v súlade s platnými predpismi, bola jasne regulovaná a využívaná ako podporný nástroj, nie ako náhrada odbornej zdravotnej starostlivosti.“
Skutočný problém: AI vie znieť presvedčivo aj vtedy, keď nemá pravdu
Pri zdravotných otázkach existuje ešte jedna pasca: generatívne AI nástroje môžu vytvárať nepravdivé či zavádzajúce informácie veľmi presvedčivým tónom. To je dôvod, prečo sa aj v zahraničí ozývajú hlasy, že podobné služby by mali byť prísnejšie testované a kontrolované.
Napríklad Guardian nedávno upozornil na obavy odborníkov v súvislosti so spustením ChatGPT Health v Austrálii, kde kritici volajú po jasnej regulácii a bezpečnostných rámcoch.
Práve zdravotné rady sú typ obsahu, kde nestačí, že odpoveď znie múdro. Musí byť aj správna.
Pomocník, ktorý môže zmeniť pravidlá – ale len pri jasných pravidlách
ChatGPT Health je bez debaty veľká vec. Môže pomôcť ľuďom lepšie chápať vlastné výsledky, pripraviť si otázky k lekárovi, sledovať vývoj zdravotného stavu či porovnať odporúčania. V dobe, keď pacient často odchádza z ambulancie s papierom plným skratiek, by takýto „prekladateľ“ dával zmysel.
Lenže zároveň platí: ak raz začneme brať umelú inteligenciu ako tichého zdravotného poradcu, musíme trvať na tom, aby fungovala transparentne, bezpečne a s rešpektom k tomu najdôležitejšiemu – dôvere. Pretože pri zdraví sa nehrá len o komfort, ale o reálne životy.
Ak chce OpenAI presvedčiť aj Európu (a raz možno aj Slovensko), bude musieť ukázať, že ochrana zdravotných údajov nie je marketingová veta, ale nepriestrelný systém.



