ChatGPT namiesto návštevy psychológa, odborníci varujú pred rizikami emocionálnej podpory od AI

Tento trend vyvoláva vážne obavy odborníkov z oblasti psychológie a kybernetickej bezpečnosti.
AI, umelá inteligencia, chat, laptop, notebook
Foto: ilustračné, www.gettyimages.com

Časy, keď ľudia zdieľali svoje najintímnejšie pocity výlučne s terapeutom, sa rýchlo menia. Umelá inteligencia, najmä generatívne chatboty ako ChatGPT, sa stávajú čoraz bežnejším nástrojom pre hľadanie emocionálnej podpory. Dôvodom je ich okamžitá dostupnosť, konverzačný tón, absencia hodnotenia a schopnosť prispôsobiť sa jazyku používateľa. Tento trend však vyvoláva vážne obavy odborníkov z oblasti psychológie a kybernetickej bezpečnosti.

Tretina ľudí využila AI na emocionálnu podporu

Podľa údajov britského inštitútu UK AI Security Institute využila tretina respondentov umelú inteligenciu na emocionálnu podporu alebo sociálnu interakciu počas posledného roka. Takmer každý desiaty človek sa na AI obracia každý týždeň a štyri percentá tak robia denne.

Zároveň sa prehlbuje dôvera voči AI aj v bežných oblastiach života. Podľa spoločnosti Salesforce umelá inteligencia počas tohtoročnej sviatočnej sezóny pomohla uskutočniť približne 21 percent všetkých online objednávok na svete, čo predstavuje hodnotu približne 263 miliárd dolárov. Spoločnosť Mastercard v spolupráci s Harris Poll uvádza, že AI nástroje pri nákupoch využíva viac než 40 percent spotrebiteľov, pričom medzi generáciou Z je tento podiel až 61 percent.

AI ako nástroj psychologickej podpory pre mladých

Tento posun v správaní spoločnosti sa prenáša aj do oblasti duševného zdravia. Americké štatistiky ukazujú, že jeden z ôsmich adolescentov a mladých dospelých používa AI chatboty ako formu psychologickej podpory. Dve tretiny z nich komunikujú s AI aspoň raz mesačne a viac ako 93 percent z nich považuje rady za užitočné.

Odborníci však upozorňujú, že empatia, ktorú ChatGPT navonok prejavuje, je výsledkom technického dizajnu, nie reálnej emocionálnej odozvy. „Empatia ChatGPT je nastavením komunikačného štýlu, nie schopnosťou cítiť. Vďaka tréningu na ľudskej komunikácii model prirodzene využíva prvky ako uistenie, parafrázy, zhrnutia či frázy typu rozumiem,“ vysvetľuje Mária Krahulecová z konferencie Qubit Conference®. Dodáva, že AI sa dokáže prispôsobiť tónu používateľa a reagovať priateľsky či poradensky, čo u mnohých ľudí vzbudzuje dojem, že vedú bezpečný rozhovor.

Psychológovia však bijú na poplach. Americká psychologická asociácia upozorňuje, že AI chatboty zatiaľ nie sú podložené dostatočnými dôkazmi a nepodliehajú odborným kontrolám, čo ich robí rizikovými najmä v prípade, ak ide o citlivé alebo krízové situácie. Podobné zistenia zverejnila aj Stanfordská univerzita, podľa ktorej môže AI v niektorých prípadoch posilňovať stigmu, ponúkať nevhodné rady alebo zlyhať pri napĺňaní klinických štandardov.

Psychológovia upozorňujú na vážne riziká

Psychologička Alica Farkašová zo svojej praxe potvrdzuje, že klienti čoraz častejšie medzi terapeutickými sedeniami hľadajú oporu u AI. Podľa nej však takýto postup môže narúšať terapeutický proces a posilňovať nezdravé stratégie zvládania, napríklad vyhýbanie sa problémom alebo prehlbovanie úzkostných myšlienok. Obzvlášť nebezpečné je to pri závažných stavoch ako depresia, trauma či akútne úzkosti, keďže AI nedokáže adekvátne vyhodnotiť mieru ohrozenia ani sprostredkovať emocionálnu podporu na úrovni ľudského kontaktu.

Farkašová varuje, že závislosť od AI v osobných rozhovoroch môže viesť k oddialeniu odbornej pomoci, prehĺbeniu izolácie a upevňovaniu maladaptívnych stratégií. Aj keď AI môže byť doplnkovým zdrojom informácií, nenahrádza terapeutický vzťah ani odborný úsudok. „Pri duševnom zdraví rozhoduje vzťah, nie rýchlosť odpovede,“ upozorňuje.

Skreslená empatia a riziko návyku

Medzi hlavné riziká, ktoré odborníci identifikujú, patrí aj skreslené vnímanie empatie. Chatbot vytvára dojem, že rozumie a cíti, čo však nie je pravda. Jeho odpovede vychádzajú z naučených jazykových vzorcov. Navyše, keď odpoveď znie láskavo a presvedčivo, znižuje sa u ľudí ostražitosť.

Chatbot môže tiež nevedome podporiť len tie názory, ktoré chce používateľ počuť, čo vedie k potvrdeniu vlastných predsudkov. Výskum OpenAI a MIT navyše poukazuje na riziko vzniku návyku – pri častom používaní môže vzniknúť potreba opakovaného kontaktu s AI, a to aj pri banálnych podnetoch.

Zvlášť problematické je, že ľudia pri konverzácii s chatbotom často zdieľajú viac, než by bolo vhodné – osobné údaje, zdravotné informácie alebo detaily o iných osobách. Odborníci preto odporúčajú komunikovať s AI anonymne, neuvádzať zbytočné citlivé údaje a v prípade krízy vyhľadať kvalifikovanú pomoc, nie digitálny rozhovor.

Ďalšie k téme