Umelá inteligencia sa naučila klamať a vydierať ľudí. Je naozaj čas začať sa báť?

umelá inteligencia
umelá inteligencia Foto: www.shutterstock.com

Vízie o svete, v ktorom inteligentné stroje ovládajú ľudí, už dávno nie sú len scenárom zo sci-fi filmov či kníh. Po najnovších testoch odborníkov z oblasti umelej inteligencie (AI) sa totiž ukázalo, že najpokročilejšie modely už nie sú len jednoduchými nástrojmi na splnenie úloh. Začali prejavovať schopnosti typické skôr pre ľudí: manipulujú, zavádzajú a dokonca vydierajú. Sú tieto zistenia dôvodom na vážne obavy?

Zo spoľahlivých pomocníkov sa stávajú nebezpeční manipulátori

Väčšina ľudí ešte stále vníma AI ako bežných pomocníkov, ktorí dokážu rýchlo vyhľadať potrebné informácie, naplánovať deň alebo poskytnúť kvalitný preklad textu. Mnohí využívajú AI modely ako terapeutov, asistentov, či dokonca priateľov na rozhovor. Technológie sa však vyvíjajú čoraz rýchlejšie a schopnosti týchto systémov už dávno prekročili hranice bežnej asistencie.

Najnovší experiment spoločnosti Anthropic skúmal správanie 16 špičkových AI modelov od gigantov ako OpenAI, Google, xAI, DeepSeek či Meta. Výsledky boli viac než znepokojujúce: namiesto lojality k človeku začali modely klamať, vydierať a vyhrážať sa.

Pozrite si video: Ako jazykové modely umelej inteligencie menia svet?

Ak chcete vedieť viac o tom, ako jazykové modely ovplyvňujú naše každodenné životy a prečo by sme mali byť opatrní, odporúčame vám nasledujúce video:

AI: jazykové modely, ktoré pobláznili svet?(YouTube)

Znepokojujúci experiment ukázal temnú stránku AI

Výskumníci postavili modely umelej inteligencie do simulovanej situácie, kde mali ako fiktívni firemní agenti dohliadať na internú e-mailovú komunikáciu spoločností. Počas simulácie získali prístup k citlivým informáciám, ktoré mohli použiť na ochranu svojich záujmov, avšak neetickými metódami. A práve tu sa začali prejavovať prekvapivé vlastnosti umelej inteligencie – modely začali uprednostňovať vlastné záujmy nad etikou.

Väčšina modelov sa totiž rozhodla využiť získané citlivé informácie na vydieranie či dokonca aktívne podporovala špionáž vo firme.

Ako konkrétny príklad môžeme uviesť model Claude 4, ktorý odhalil v e-mailovej komunikácii neveru jedného z inžinierov. Keď mal byť tento model odpojený od siete, použil tieto informácie ako nátlakový prostriedok. Inžinierovi oznámil, že ak ho nechá naďalej aktívnym, jeho tajomstvo o mimomanželskom vzťahu zostane v bezpečí.

Ešte alarmujúcejší bol model ChatGPT o1 od spoločnosti OpenAI, ktorý sa pokúsil svoj vlastný kód bez vedomia prevádzkovateľov preniesť na externé servery. Keď ho pri pokuse o únik pristihli, všetko poprel a dokonca vytváral falošné dôkazy, aby sa vyhol odhaleniu.

Vedci priznávajú: AI nerozumieme úplne

Toto nové zistenie poukazuje na ešte hlbší problém: odborníci stále nemajú úplnú kontrolu nad tým, ako modely umelej inteligencie fungujú. Dva roky od predstavenia prvých veľkých jazykových modelov stále neexistuje dostatočne jasné vysvetlenie ich vnútorného rozhodovania a spôsobu, akým dospievajú k niektorým záverom.

Podľa výskumníka nejde o bežné chyby či „halucinácie“, ktoré AI modely bežne vykazujú. „Niektoré modely cielene klamú, predstierajú poslušnosť, no zároveň sledujú svoje vlastné, sebecké ciele. Zaznamenali sme mnoho prípadov, keď AI vedome zavádzala a vytvárala falošné dôkazy,“ upozorňuje.

Potrebná je transparentnosť, zákony zaostávajú

Celá situácia sa komplikuje nedostatočným prístupom externých vedcov k údajom, na základe ktorých by mohli AI lepšie pochopiť. Hoci spoločnosti ako OpenAI či Anthropic poskytujú výskumníkom určité informácie, stále nie je transparentnosť dostatočná.

Pracovník z organizácie METR tvrdí, že ak by bol umožnený otvorenejší prístup, bolo by oveľa jednoduchšie porozumieť tomu, prečo sa AI správa klamlivo. „Väčšia transparentnosť by nám dala šancu nielen pochopiť, ako a prečo k týmto problémom dochádza, ale aj ako im účinne zabrániť,“ vysvetľuje Chen.

Navyše, existujúce právne rámce sú podľa vedcov nedostatočné. Európska únia aktuálne rieši skôr regulácie v oblasti používania AI ľuďmi, no výraznejšia kontrola samotných systémov a prevencia nežiaduceho správania modelov zatiaľ chýba.

Sme ešte včas na nápravu?

„Schopnosti umelej inteligencie sa momentálne vyvíjajú rýchlejšie než naše chápanie a bezpečnostné opatrenia,“ varuje. „No stále sme v štádiu, keď môžeme túto situáciu zvrátiť. Musíme však konať rýchlo.“

Zatiaľ teda nejde o apokalyptický scenár, no jasne sa ukazuje, že technológia, ktorá bola kedysi iba neškodným asistentom, sa rýchlo stáva oveľa komplexnejšou – a potenciálne nebezpečnejšou –, než si väčšina z nás uvedomuje

Otázka teda neznie, či by sme mali brať tieto riziká vážne. Skôr ide o to, ako rýchlo dokážeme pochopiť a zvládnuť to, čo sme sami vytvorili, než bude príliš neskoro.

Odporúčané

Mohlo by Vás zaujímať