Na slovenskom LinkedIne bol vytvorený profil s menom Sofia Wagner. Osobu, ktorá rýchlo nazbierala sledovateľov a komunikovala s nimi, poháňala umelá inteligencia.
"Zistilo sa, že to je celé falošné. Tento príklad ilustruje silu možného zneužitia AI," hovorí odborník na umelú inteligenciu BRANISLAV ŠMIDT.
Napriek tomu si myslí, že je dobré naučiť sa s ňou zžiť. "Doba je rýchla a pre tých, ktorí zaspia, môže byť už mesiac citeľný. Napríklad pri novom zamestnaní či jeho udržaní."
Víta nové nariadenia EÚ o umelej inteligencii, ale upozorňuje na prehnanú reguláciu.
Z rozhovoru sa dozviete:
- Prečo vznikli v EÚ regulácie na umelú inteligenciu.
- Či podľa odborníka treba regulovať AI, či nariadenia nebránia technologickému vývoju.
- Čo znamená sociálny kredit v Číne a ako súvisí s AI a novými nariadeniami.
- Za akých okolností by povolil biometrickú identifikáciu.
- Prečo víta princíp nariadenia na základe miery škodlivosti.
Stretáva sa dnes bežný Slovák či Slovenka s umelou inteligenciou často?
Myslím, že téma umelej inteligencie v médiách zaznieva celkom často. No mám pocit, že sa vníma skôr z negatívnej stránky, napríklad cez deep fake videá a zneužívanie na nekalé účely.
Pôsobí to ako nejaký varovný odkaz: pozor, je tu umelá inteligencia, pozrite sa, čo nám všetko hrozí. Namiesto toho by sme ju mali v našej malej krajine brať ako príležitosť. Vidíme to na príklade Estónska, ktoré digitalizáciu správne uchopilo a teraz z toho benefituje.
Kým bežný Slovák vníma AI cez skreslenú optiku, skôr negatívnu, odborníci a firmy, ktoré s ňou pracujú a vyvíjajú ju, v nej vidia najmä pozitívnu stránku. Tou je, že vie pomôcť v práci, podnikaní a podobne.
S cieľom nasmerovať správny vývoj AI prichádza Európska únia ako prvá na svete s novými legislatívnymi normami. Patríte k tým, ktorí si myslia, že inováciám netreba brániť v rozvoji alebo je dobré predvídať a vopred obmedziť niektoré dosahy AI technológie?
Som presne v strede (smeje sa). Otvorene poviem, že určitá miera regulácie umelej inteligencie je nevyhnutná. Keďže s ňou pracujem na dennej báze, vnímam aj obrovské riziká. Preto treba niektorým nebezpečenstvácm predchádzať.
Na druhej strane, keďže poznám EÚ z iných typov regulácií, viem, čo dokáže spôsobiť prehnaná regulácia v rámci inovácií. Preto sa trošku obávam preregulovanosti v niektorých detailoch.

Z môjho pôsobenia v startupoch som sa naučil, že každá firma, ktorá začína niečo inovatívne vyvíjať, už znáša obrovskú mieru rizika aj bez regulácie.
Ak si zoberiete, že nejaká firma má investovať svoj čas, zdroje a energiu napríklad do vývoja slovenskej mutácie veľkého jazykového modelu, bude mať v porovnaní s ostatnými hráčmi z iných krajín omnoho ťažšie prostredie. Napríklad bude musieť spĺňať kopu podmienok a administratívnych požiadaviek. EÚ tak bude musieť vytvárať podmienky na to, aby sa takéto startupy vôbec rozhodli pôsobiť v krajinách Únie, napríklad formou grantových schém a podobne.
Vidíte problém nariadení v tom, že nie sú celosvetové a vývojárske firmy pôsobiace v iných krajinách so žiadnymi obmedzeniami bojovať nemusia?
Problém je aj inde. Umelá inteligencia je založená vždy aj na prístupe k rozsiahlym dátam, na ktorých sa učí. Tým, že EÚ už doteraz regulovala dáta napríklad GDPR, už teraz majú firmy trochu sťažené podmienky na rozdiel od tých v Číne, prípadne v USA.
Tam môžete pracovať s omnoho väčším súborom dát, ktoré môžete využívať na učenie umelej inteligencie v rôznych typoch segmentov. To sa v Únii, ak nariadenia postupne začnú platiť, dať nebude.
Môžete uviesť príklad?
Typickým príkladom využívania dát je biometrická identifikácia. Ak ju budú chcieť firmy využívať napríklad v zdravotníctve na nejaké bežné činnosti, všetko budú musieť robiť v súlade s nariadeniami a budú musieť spĺňať množstvo kritérií.
A to bude znamenať sťaženie podmienok a veľa z nich sa pravdepodobne rozhodne to nerobiť. A to nás v EÚ môže brzdiť vo využívaní inovácií v niektorých dôležitých oblastiach.
Veľmi sa diskutovalo o téme sociálneho skóre, ktoré funguje v Číne. To sa nakoniec v európskej regulácii objavilo.
To, že sa to pre EÚ stalo zakázanou praktikou, veľmi podporujem.
V Číne vás bodujú na základe rôznych biometrických údajov - rozpoznávania tváre, priraďovania identity podľa pohybu, teda všetkého, z čoho dokážu vyskladať vaše ID. Monitorujú vás v pohybe, v činnosti, napríklad keď platíte kreditnou kartou a podobne. Sledujú aj výstupy na sociálnych sieťach, politické názory. Podľa toho vzniká systém sociálneho kreditu.
To všetko sa zbiera do databázy, ktorá vám prideľuje takzvané sociálne skóre - kredit. Vytvárajú si o vás virtuálnu identitu. V Číne k tomu priraďujú ďalšie veci - ak máte zlé skóre, nedovolia vám cestovať, používať mestskú hromadnú dopravu, zobrať si pôžičku a rôzne iné veci.
Získaný sociálny kredit ovplyvňuje ľudí v ich bežnom živote.
Únia takéto technológie na identifikáciu či monitoring ľudí nepovolila ani vyvíjať, ani prevádzkovať. A tak by to malo byť všade na svete. Firmy by nemali mať možnosť zbierať a využívať informácie bez vášho vedomia.
V nových normách nájdeme aj pár ďalších vecí ako technológie vplývajú na zmenu správania sa spotrebiteľov či zraniteľných skupín.
Napríklad?
Sú to rôzne formy falošných kampaní alebo ovplyvňovanie správania zraniteľných skupín, ku ktorým patria seniori či deti. Toto všetko bude zakázané.
Tým, že umelá inteligencia vie veľa o človeku, môže rôznym spôsobom manipulovať aj jeho správanie.
Čo by sa teoreticky mohlo stať, ak by sme umelú inteligenciu neregulovali?
Za najväčšie riziko považujem, že prídu autonómne systémy, nad ktorými človek stratí kontrolu.
Aj preto európska norma v mnohých prípadoch ustanovuje, že človek musí mať nad procesmi, ktoré súvisia s AI, finálne rozhodnutie. Ak by sa to nechalo neregulované, tak by časom, a rozprávame v horizonte pár rokov, umelá inteligencia samostatne vykonávala vaše pokyny.
Predstavte si, že by ste zadali pokyn, ale už nebudete vedieť, ako a prečo ho vykoná, tak ako ho vykoná. Technológia sa dopracuje k výsledku, no vy nebudete poznať proces a toho sa veľmi obávam.
A najväčšie riziko vidím v tom, že umelá inteligencia bude niektoré kroky robiť úplne sama, bez toho, aby jej to ktokoľvek zadal.
Veľké svetové kapacity tvrdia, že k tomu, keď umelá inteligencia prekoná inteligenčné schopnosti človeka a podarí sa dosiahnuť takzvanú všeobecnú umelú inteligenciu, sa dostaneme tak o tri až päť rokov.
Legislatíva vychádza z princípu členenia podľa miery škodlivosti AI. Ako to hodnotíte?
Páči sa mi to. Je to kategorizované podľa toho, aké škody môže AI urobiť. Možno by som niektoré veci, ktoré sa ocitli v skupine najrizikovejších, prípadne vysoko rizikových, presunul o úroveň nižšie.
Ktoré napríklad?
Vzdelávanie, odborný výcvik sú vo vysoko rizikových. Alebo nábor nových zamestnancov.
Vnímam to tak, že pri nábore do zamestnania by sa mohli firmy rozhodovať podľa umelou inteligenciou vyhodnotených ľudských vlastností uchádzača.
Tam by som nejaký vplyv AI vôbec nevnímal. Už dnes životopisy vyberá nejaká umelá technológia, boti. Treba mať nad tým dohľad, ale nie je to vysoko riziková záležitosť.
Mne napríklad neprekáža ani biometrická identifikácia, ak sa deje za korektným účelom. Napríklad, ak nejaká firma vyvíja technológiu, ktorá vám na základe biometrických údajov povolí či zakáže vstup do budovy alebo sa táto identifikácia využije pre niektoré transakcie. Ak sa pri tom nezneužíva AI, tak je to v poriadku.
V každej krajine má byť na kontrolu regulatív úrad. Pamätám si, keď do platnosti vstúpilo GDPR. Neboli odborníci, ktorí by vedeli nové nariadenie skontrolovať. Ako bude prebiehať kontrola nových noriem v praxi?
Tam sa to celé rozhodne. Či to bude vo finále iba nariadenie na papieri, alebo bude reálne fungovať v takom dynamickom prostredí, ako je AI.
Veľký problém EÚ je ten, že jednotlivé krajiny majú vlastné jurisdikcie. Výhodou AI aktu je, že ho museli podpísať a prijať všetky krajiny.
Vymožiteľnosť bude na lokálnych úradoch. Krajiny majú šesť mesiacov na to, aby určili, ktorá inštitúcia bude kontrolovať napĺňanie regulácie. Na Slovensku to zatiaľ smeruje k Ministerstvu investícií, regionálneho rozvoja a informatizácie SR (MIRRI). To by malo byť teda garantom kontroly, vymáhania, ale aj reportovania EÚ.
Nad lokálnymi úradmi je na európskej úrovni úrad pre umelú inteligenciu.
Pre mňa bude zaujímavé, ako bude fungovať nahlasovanie, kto to bude sledovať a vyhodnocovať.
Podľa nového nariadenia sa každý obrázok či video má označiť informáciou, že bolo vygenerované AI. Rozozná dnes bežný človek obrázok či video vytvorené AI?
Ak ste každodenným používateľom internetu, tak to veľmi dobre rozoznáte. Je tam iný pohyb pier, vidíte, že firma má skomolený text. Ale veľmi rýchlo sa to zlepšuje a bude to čoraz ťažšie aj pre skúsených používateľov.
Keď ide o človeka, ktorý nemá tušenie o tom, čo všetko dnes technológia dokáže, manipulatívna technika falošného obsahu môže zafungovať.

Neviem si predstaviť, že niekto, kto zámerne vyrába falošné video s cieľom zmanipulovať ľudí, ho označí ako "Generated by AI".
Ak ste úspešný influencer, už teraz máte pri zverejňovaní obsahu kolónku "bola pri generovaní použitá AI".
Tí poctiví to zakliknú. Ak to nebudú robiť, môže sa stať, že sledovatelia ich začnú nahlasovať úradom alebo prevádzkovateľom sociálnych sietí, ktorí ich zablokujú.
Aj falošné politické falošné videá budú pravdepodobne nahlasovať bežní ľudia. Pošlú link buď na lokálny úrad, alebo priamo na európsky úrad.
Podotýkam, že celé je to zatiaľ v procese, úrady sa vytvárajú a ešte to určitý čas potrvá.
Keď si predstavím ako dlho trvá facebooku alebo youtube odstránenie videa, ktoré niekto nahlásil...
Áno, otázkou je to, ako rýchlo bude vedieť EÚ a jednotlivé krajiny nastaviť tímy ľudí a aká bude ich odbornosť.
Pravdepodobne sa budú riešiť najskôr tie najvypuklejšie a najviditeľnejšie prípady, ako napríklad falošné videá imitujúce politikov.
A tiež také, ktoré vedú k podvodu. Dnes sa deje to, že existujú falošné kampane, ktoré vás navedú na falošné značkové stránky a dokonca vás privedú k zaplateniu. Všetko vyzerá profesionálne, dokonca to imituje známu značku.
Dôležité však bude, z ktorej krajiny sa to bude šíriť.
Problém bude, ak to bude z krajiny mimo EÚ, vtedy bude vymáhanie veľmi ťažké.
Možno dôjde aj k nejakej dohode so spoločnosťami, ktoré prevádzkujú sociálne siete Meta, youtube a podobne. Ak úrad potvrdí, že ide o problémovú vec, mali by to jednoducho zastaviť.
Dokonca predpokladám, že ak vývojové firmy, ktoré tvoria jazykové modely, chatbotov a podobne, budú chcieť predávať svoje technológie na územie EÚ, budú musieť preukázať, že boli vytvorené s ohľadom na tieto regulácie.
Denne pracujete s umelou inteligenciou. Spomeniete si na niečo, čo vás v poslednej dobe vyrušilo?
Kto je Branislav Šmidt
- Odborník na Generatívnu AI a jej praktické využitie.
- Predtým pôsobil ako prevádzkový riaditeľ v slovenskej firme GOSPACE LABs, stál za zrodom viacerých startupov a iniciatív, napríklad rozbehol jeden z prvých profesionálnych coworkingov a startup akcelerátorov Impact HUB Bratislava.
- Bol pri vzniku prvého startupového akceleračného programu na Slovensku Uplift.
Na slovenskom LinkedIne bol vytvorený profil s menom Sofia Wagner. Osobu, ktorá rýchlo nazbierala sledovateľov, komunikovala s nimi, poháňala umelá inteligencia.
Potom to niekto prekukol a zistilo sa, že to je celé falošné. Vraj to robila marketingová agentúra, ktorá sa však k tomu neprihlásila. Tento príklad ilustruje silu možného zneužitia AI.
To sme blízko témy zodpovednosti, európska norma to klasifikuje vysokými pokutami.
Najvyššia možná pokuta, teda sedem percent z globálneho obratu alebo 35 miliónov eur, sa bude vymáhať len pri porušení najrizikovejších oblastí. Napríklad, keď niekto použije technológiu na zbieranie dát na sociálny kredit.
Potom sú nižšie sadzby. No pre slovenský trh je aj najnižšia pokuta - 7,5 milióna eur, likvidačná. Firmám, ktorým úrady dokážu pochybenie, budú mať veľký problém.
To, čo by si mali všetci odniesť z tejto normy vrátane vývojárskych firiem je, ako využiť technológiu na pozitívne účely. Nebáť sa umelej inteligencie. Ak máte dobrý zámer, a nie nekalé úmysly, je dobré naučiť sa s ňou zžiť. Doba je rýchla a pre tých, ktorí zaspia, môže byť už mesiac citeľný. Napríklad pri novom zamestnaní či jeho udržaní.
Mantinely EÚ pre umelú inteligenciu (AI Act)
- Európska komisia stanovila spoločné regulatívy pre AI pre všetky členské štáty EÚ. Ide o celosvetovo prvé nariadenie, ktorého cieľom je bezpečné, ale aj etické využívanie AI technológií.
- Ide o nariadenie, nie o smernicu, preto je v krajinách priamo záväzné, netreba čakať na ďalšie legislatívne úpravy v jednotlivých krajinách.
- Nariadenie prijali v apríli, všetky regulácie majú postupne do dvoch rokov vstúpiť do platnosti. Prvé normy, ktoré sa týkajú zakázaných systémov AI musia byť aplikované do šiestich mesiacov odo dňa platnosti.
- Základným princípom legislatívy je kategorizácia systémov umelej inteligencie na základe bezpečnostných rizík: neprijateľné, vysoké, stredné a nízke. Čím vyššie je riziko pre spoločnosť, tým prísnejšie sú pravidlá.
- Neprijateľné riziko sú také technológie AI, ktorých používanie je v rozpore s EÚ. Zakázané je napríklad prediktívne vykonávanie policajných funkcií, ktoré využívajú biometrické systémy na kategorizáciu podľa citlivých ľudských znakov ako rasa, politické názory, náboženské presvedčenie či sexuálna orientácia. Zakazuje sa použitie AI na systém sociálneho hodnotenia či v zamestnaní na rozpoznanie psychologického stavu zamestnancov. AI nemožno použiť ani na manipulatívne techniky alebo na zneužitie zraniteľných skupín vrátane detí.
- Vysoko rizikové sa týkajú zdravia, aj AI vo finančných službách (odmietnutie úveru na základe vyhodnotenia neschopnosti splácania), v oblasti vzdelávania, v zamestnaní (AI na triedenie životopisov).
- Obmedzené riziko predstavujú chatboti, minimálne napríklad videohry využívajúce AI.
- Povinnosti sa týkajú aj ChatGPT - obsah, napríklad obrázok, video, alebo audiobsah musia byť označené, že ho vytvorila AI.
- Nariadenie stanovuje vysoké sankcie. (pozri rozhovor)

Beata
Balogová
