Prečo Ai nespôsobí masovú nezamestnanosť, ale kritický nedostatok expertov a civilizačnú krehkosť

Skutočnou hrozbou Ai nie je strata práce, ale strata chápania. Staviame systémy, ktoré presahujú našu schopnosť ich riadiť a opraviť. Nebojujeme o prácu, ale o udržanie civilizácie, ktorej prestávame rozumieť. Našou najväčšou výzvou je efektivita chápania, nie práce.

Prečo Ai nespôsobí masovú nezamestnanosť, ale kritický nedostatok expertov a civilizačnú krehkosť
audio-thumbnail
Prečo Ai nespôsobí masovú nezamestnanosť, ale kritický nedostatok expertov a civilizačnú krehkosť
0:00
/448.2909583333333

V predchádzajúcej úvahe som sa venoval akceleracionizmu a načrtol víziu systémového zlyhania súčasnej Ai paradigmy, ktorá je poháňaná ilúziou pokroku. Tento článok sa zameriava na jeden z jej kľúčových, no často prehliadaných motorov. Zatiaľ čo myšlienkový prúd akceleracionizmu vidí v umelej inteligencii takmer mesiášsky liek na našu civilizačnú stagnáciu, dominantným naratívom v širšej spoločnosti nie je oslava, ale strach. Strach z toho, že tá istá sila, ktorá má akcelerovať pokrok, zároveň automatizuje kognitívnu prácu a nevyhnutne spôsobí masovú nezamestnanosť.

⚠️
Tento text na rozdiel od väčšiny článkov na Altky.sk nie je generovaný pomocou Ai aj keď som si v niektorých pasážach pomáhal LLM nástrojmi.
Why AI Won’t Cause Mass Unemployment, but a Critical Shortage of Experts and Civilizational…
This is Ai translation of my original article in Slovak language

Anglickú verziu článku nájdete na mojom Medium profile


Opačný dopad

Často sa v tomto kontexte cituje vplyvná štúdia Frey & Osborne z roku 2017, podľa ktorej je takmer 47% pracovných miest v USA technicky automatizovateľných [10]. Z tohto všadeprítomného strachu potom pramenia aj úvahy o radikálnych spoločenských opatreniach, akým je napríklad univerzálny základný príjem.

Táto lineárna a zdanlivo logická predstava je však spochybňovaná čoraz silnejšími dátami z reálneho sveta. Bližší pohľad na trh práce odhaľuje paradoxný trend. Analýza PwC [9] z roku 2025 zistila, že umelá inteligencia v skutočnosti zvyšuje hodnotu ľudskej práce. Firmy v odvetviach najviac exponovaných Ai vykazujú až trojnásobne vyšší rast tržieb na zamestnanca a mzdy v týchto sektoroch rastú dvojnásobne rýchlejšie než inde. Dokonca aj na pozíciách považovaných za vysoko automatizovateľné platy stúpajú a počet pracovných miest vo väčšine profesií ovplyvnených Ai rastie. Tento trend naznačuje, že namiesto predpovedaného prebytku ľudskej sily sme svedkami presného opaku, akútneho nedostatku kvalifikovaných ľudí.

Kontraintuitívna téza tohto článku znie, že dopad Ai bude skutočne dramatický, ale s opačným výsledkom. Nespôsobí masovú nezamestnanosť, ale extrémny a chronický hlad po skutočných expertoch. Umelá inteligencia tak podľa tohto pohľadu nielenže spôsobí nedostatok ľudských kapacít, ale zároveň odhalí hlbokú a systémovú krehkosť našich príliš komplexných systémov.


Jevonsov paradox v ére Ai

Aby sme pochopili, prečo umelá inteligencia nepovedie k prebytku, ale k nedostatku ľudských kapacít, musíme sa obrátiť na 150 rokov starý ekonomický princíp známy ako Jevonsov paradox. Už v roku 1865 si anglický ekonóm William Stanley Jevons všimol zdanlivo nelogický fenomén. Vo svojom diele The Coal Question napísal: "Je úplne mylnou predstavou domnievať sa, že úsporné využívanie paliva je ekvivalentom zníženej spotreby. Pravdou je presný opak" [8]. Po tom, čo James Watt dramaticky vylepšil parný stroj a zvýšil tak účinnosť spaľovania uhlia, celková spotreba uhlia nečakane explozívne rástla. Dôvod bol jednoduchý. Efektívnejší a lacnejší parný pohon sa stal dostupným pre úplne nové odvetvia, železnice a továrne. Hoci na jednotku výkonu bolo treba menej paliva, celková spotreba stúpla, pretože sa dramaticky rozšíril rozsah jeho použitia.

Tento fenomén, známy aj ako "rebound efekt" [5], nie je len historickou kuriozitou. Keď boli v roku 1969 zavedené prvé bankomaty, mnohí predpovedali zánik profesie bankového pokladníka. Stal sa však opak, počet pokladníkov v USA narástol, pretože banky mohli vďaka automatizácii otvoriť viac menších pobočiek, čím vzniklo viac pracovných miest v novej, viac na služby zameranej roli [7].

Dnes sme svedkami rovnakého princípu, aplikovaného na kognitívnu prácu. Ai je "Wattovym parným strojom kognitívnej práce". Generatívne modely dramaticky zefektívňujú tvorbu textu, kódu, analýz a dizajnov. Cena jednotky "kognitívnej práce" klesá, a to vedie k explózii dopytu, nie jeho poklesu. Každé zlepšenie Ai sprístupňuje nové oblasti použitia. Tento jav potvrdzuje aj výskum, ktorý varuje, že "zisky v efektivite podnecujú vyššiu celkovú spotrebu" [5].


Záplava dostatočne dobrého

Tento explozívny nárast však neprodukuje dokonalé výsledky. Naopak, vytvára paradoxnú situáciu, zatiaľ čo znižuje náklady na generovanie prvotných výstupov a buduje tak ilúziu produktivity, zároveň dramaticky zvyšuje skrytý náklad na ich overenie a opravu. Na trhu sa hromadia výstupy, ktoré sú síce funkčné, ale často plytké, nepresné alebo kontextuálne nevhodné, "dostatočne dobré". Tento jav môžeme pozorovať v kľúčových odvetviach:

  • Softvér: Nástroje ako Cursor umožňujú zdanlivo rýchlejší vývoj, no často generujú suboptimálny alebo chybný kód. Tým sa hromadí technický dlh a vytvára sa „bumerangový efekt“: práca, ktorú Ai urýchlila, sa neskôr vracia k seniorným inžinierom v podobe komplexného ladenia a opráv, čo ich v konečnom dôsledku spomaľuje a znižuje ich efektivitu.
  • Právo: V známom prípade z USA použili právnici ChatGPT na tvorbu podaní pre súd. Umelá inteligencia si však judikáty, na ktoré sa odvolávala, jednoducho vymyslela, čo viedlo k sankciám a zdôrazneniu absolútnej zodpovednosti človeka za overenie faktov.
  • Marketing a obsah: Internet zaplavuje tzv. "Ai slop", nekonečný prúd plytkého a repetitívneho obsahu. Tento digitálny odpad nielenže znižuje dôveru používateľov v online informácie, ale aktívne sťažuje prístup ku kvalitným, overeným zdrojom.

Z tejto potopy generického materiálu sa rodí zásadný ekonomický a kognitívny paradox, ktorý priamo nadväzuje na moju predchádzajúcu úvahu o poklese produktivity. Ai síce zlacňuje generovanie obsahu pre masy a poháňa tak ilúziu pokroku, no zároveň presúva bremeno zodpovednosti a kognitívnej námahy na úzku skupinu expertov. Ich úlohou už nie je len tvoriť, ale predovšetkým auditovať, integrovať a opravovať prácu Ai. Tento nový, vysoko špecializovaný dopyt sa sústreďuje do štyroch hlavných oblastí:

  1. Validácia a audit: Overovanie správnosti, bezpečnosti a kvality výstupov Ai.
  2. Integrácia a kontextualizácia: Zasadenie generického riešenia do špecifického, komplexného prostredia firmy alebo projektu. Dopyt po tzv. "glue people", ľuďoch, ktorí dokážu prepojiť technológiu a biznis, prudko rastie. Štúdia z Oxfordskej univerzity ukázala, že od roku 2015 sa dopyt po týchto zručnostiach zpäťnásobil [4].
  3. Opravovanie subtílnych chýb: Hľadanie a riešenie nečakaných problémov a hraničných prípadov, ktoré Ai systémy vytvárajú v reálnom svete.
  4. Strategické vedenie: Schopnosť posúdiť, či a ako má byť Ai vôbec použitá, sa stáva jednou z najcennejších zručností. V tejto oblasti sú obzvlášť žiadaní lídri so schopnosťou koučovať, vyjednávať a prijímať strategické rozhodnutia [4].

Práve tieto štyri činnosti sú dôvodom, prečo, ako som argumentoval v predchádzajúcom texte, nasadenie Ai môže paradoxne viesť k spomaleniu a zníženiu produktivity u najskúsenejších profesionálov. Ich čas je pohltený kognitívne náročným dohľadom, nie samotnou tvorbou.

💡
Poznámka: Tento explozívny dopyt po expertoch je navyše akcelerovaný megatrendom, ktorý prebieha paralelne s nástupom Ai, urgentnou potrebou environmentálnej mitigácie a adaptácie. Zatiaľ čo Ai generuje komplexitu v abstraktných a digitálnych systémoch, klimatická zmena si vynucuje bezprecedentnú rekonštrukciu našich fyzických systémov, energetiky, poľnohospodárstva, logistiky a infraštruktúry.

Atrofia expertných svalov

Zatiaľ čo dopyt po expertoch exponenciálne rastie, na druhej strane rovnice sa odohráva rovnako silný, no opačný proces, ponuka takýchto odborníkov sa systematicky znižuje. Samotná Ai totiž narúša ekosystém, v ktorom sa ľudská expertíza rodí a rozvíja.

  • Strácame tréningové prostredie: Experti sa historicky formovali cez tisíce hodín praxe na základných, rutinných úlohách. Ai tieto úlohy automatizuje, čím pripravuje juniorov o kľúčové "tréningové ihrisko", na ktorom sa buduje nielen znalosť, ale aj intuícia a hlboké porozumenie [10].
  • Prelamuje sa reťazec odovzdávania znalostí: Vzniká priepasť medzi hŕstkou skúsených veteránov a masou "Ai operátorov", ktorí vedia zadávať príkazy, ale nerozumejú základným princípom. Zužuje sa stredná vrstva profesionálov, cez ktorú sa znalosti prirodzene odovzdávajú a kultivujú, čo by mohlo viesť k nedostatku seniorných programátorov v budúcnosti.

Silnú historickú výstrahu ponúka letectvo. Prehnaná dôvera v automatizáciu môže viesť k "erózii manuálnych zručností" a "zníženej situačnej pozornosti" [3]. Zlyhanie letu Air France 447 v roku 2009 tragicky ukázalo, že nedostatok praxe v manuálnom riadení môže mať fatálne následky, keď zlyhá technológia a je potrebná hlboká ľudská odbornosť [3].


Prekročenie prahovej hodnoty neuchopiteľnosti

Zlyhávanie expertízy je podľa môjho názoru však len symptómom hlbšieho a nebezpečnejšieho problému. Naša technologická civilizácia smeruje k bodu, ktorý môžeme nazvať "prahová hodnota neuchopiteľnosti". Tento proces nie je nový, je to moderná verzia toho, čo historik Joseph Tainter nazval kolapsom komplexných spoločností. Podľa Taintera spoločnosti investujú do komplexity (byrokracie, technológie, infraštruktúry), aby riešili problémy, no časom začnú výnosy z tejto komplexity klesať [6]. Náklady na udržanie systému nakoniec prevýšia jeho prínosy a spoločnosť sa stane extrémne krehkou voči šokom, ktoré by predtým zvládla [2].

Dnes naša investícia do komplexity nie je primárne v légiách či akvaduktoch, ale v abstraktných systémoch, softvéri, globálnych financiách a Ai. A návratnosť tejto investície sa nemeria len v obilí či zlate, ale v našej schopnosti systém pochopiť a riadiť. Problémom je, že Ai nám umožňuje stavať "čierne skrinky pomocou čiernych skriniek" a zvyšovať tak mieru abstrakcie. Vývojár používa Ai na generovanie kódu pre systém, ktorého hlbším vrstvám už nerozumie.

Približujeme sa tak k bodu, kedy ani spojené kolektívne vedomie celého ľudstva v danom okamihu by nebolo schopné túto komplexitu plne reprodukovať v prípade systémového zlyhania. Hoci ukladáme dáta, strácame nepísané vedomosti potrebné na ich transformáciu do fungujúcej reality. Naša globálna infraštruktúra, závislá od niekoľkých kľúčových uzlov, sa stáva nebezpečne krehkou. Stačí výpadok jednej špecializovanej čipovej fabriky, ako sme videli počas pandémie, keď nedostatok mikročipov zastavil automobilovú produkciu, a kolabuje celé priemyselné odvetvie [2]. Prekročenie tejto prahovej hodnoty tak znamená, že stratíme schopnosť obnoviť civilizáciu, ak by náš komplexný systém vážne zlyhal, pretože sme stratili nielen plány, ale aj schopnosť ich čítať a realizovať. Tainterov kolaps je v podstate zjednodušením, v tomto prípade by to mohlo znamenať nevratnú stratu našich technologických schopností civilizácie ako takej.


Od efektivity práce k efektivite chápania

Skutočný závod s Ai nie je o tom, či nás stroje nahradia. Je to pretek medzi rastúcou komplexitou sveta, ktorý vytvárame, a našou schopnosťou mu ako ľudský druh porozumieť. Ak chceme v týchto pretekoch uspieť a vyhnúť sa osudu komplexných spoločností, ktoré podľa Taintera skolabovali pod vlastnou váhou, musíme radikálne zmeniť naše priority.

Aby sme prežili, musíme:

  1. Reformovať vzdelávanie: Namiesto čistého memorovania faktov musíme rozvíjať metazručnosti, systémové myslenie, metakogníciu (schopnosť premýšľať o vlastnom myslení) a prácu s neurčitosťou.
  2. Merať a kultivovať racionalitu (RQ): Musíme začať odceňovať a merať schopnosť robiť správne a logické rozhodnutia. Ako navrhujú Keith Stanovich, Richard West a Maggie Toplak, racionalita je merateľná kognitívna kompetencia, ktorú súčasné IQ testy nedokážu zachytiť. Podľa nich je "dysracionalita", neschopnosť myslieť a konať racionálne napriek adekvátnej inteligencii, bežným javom, ktorému musíme čeliť [1].
  3. Budovať antifragilné systémy: Kľúčom k prežitiu nie je snaha o dokonalú predvídateľnosť, ale budovanie systémov, ktoré sú antifragilné. Ako definuje Nassim Taleb, antifragilita nie je len robustnosť, schopnosť odolať šoku. Je to vlastnosť systémov, ktoré z chaosu, náhodnosti a stresorov profitujú a stávajú sa silnejšími [11]. Zatiaľ čo robustný systém náraz prežije a zostane rovnaký, antifragilný systém sa vďaka nemu zlepší. To znamená akceptovať a dokonca vítať malé, nefatálne chyby. Systém, ktorý sa z nich učí, ako napríklad letectvo, kde každá havária vedie k bezpečnejším lietadlám, sa posilňuje. Tým, že Ai odstraňuje rutinné úlohy, berie juniorom možnosť robiť malé, kontrolované chyby a učiť sa z nich, čím paradoxne prispieva ku krehkosti celého expertného ekosystému. Prakticky to znamená aplikovať princíp "via negativa", viac sa sústrediť na odstraňovanie toho, čo je preukázateľne škodlivé a krehké, než na pridávanie nových, netestovaných riešení. Naše systémy musia byť decentralizované, aby sa chyby nešírili, a mali by využívať "barbell stratégie", teda kombinovať extrémne konzervatívne prístupy v kritických oblastiach s priestorom pre odvážne, no kontrolované experimenty v iných. Len takýto prístup nám umožní navigovať svet, ktorému plne nerozumieme, bez toho, aby sme ho zničili.
  4. Investovať do kolektívnej inteligencie: Snaha o efektivitu chápania nie je len individuálna, je predovšetkým kolektívna. Paradoxne, technológia, ktorá mala tento potenciál konečne využiť, spektakulárne zlyhala. Sociálne siete, ktoré mohli fungovať ako globálny mozog na kolektívne riešenie problémov, sa zvrhli na svoj presný opak. Na systémy optimalizujúce rozptýlenie, polarizáciu a emočnú manipuláciu, na digitálny opiát más. Skutočná inovácia 21. storočia preto nespočíva len v lepšej Ai, ale v navrhovaní systémov, ktoré dokážu konečne efektívne extrahovať a syntetizovať signál z kolektívneho šumu a kultivovať tak naše spoločné chápanie, nie ho tlmiť.

Záver

Debata o budúcnosti práce, ovládaná strachom z masovej nezamestnanosti, sa tak míňa podstate. Namiesto prebytku ľudskej pracovnej sily čelíme kritickému a paradoxnému nedostatku tej najcennejšej komodity, hlbokého kontextuálneho chápania. Staviame civilizáciu na systémoch, ktorým postupne prestávame rozumieť a súčasne ničíme aj ekosystém, v ktorom sa rodia ľudia schopní ich opraviť.

Naša najväčšia hrozba tak neprichádza v podobe robota, ktorý nám vezme prácu. Prichádza v podobe ticha v riadiacej miestnosti vo chvíli, keď zlyhá systém, ktorému už nikto nerozumie. To nie je kríza zamestnanosti. To je kríza zmyslu a prežitia.

Zoznam použitých zdrojov

The Rationality Quotient
Why are we surprised when smart people act foolishly? Smart people do foolish things all the time. Misjudgments and bad decisions by highly educated bankers…

[1] Stanovich, K. E., West, R. F., & Toplak, M. E. (2016). The Rationality Quotient: Toward a Test of Rational Thinking. MIT Press.

Frontiers | Fragility in Human Progress. A Perspective on Governance, Technology and Societal Resilience
The technological foundation of each civilization determines its living conditions and prosperity [2,3,4]. Access to discussed resources should not be viewed…

[2] Sargentis, G.-F. (2025). Fragility in Human Progress. A Perspective on Governance, Technology and Societal Resilience. Frontiers in Complex Systems, 3.

The Dangers of Overreliance on Automation
Safety Concerns and Mitigation Strategies for Pilots

[3] Blair, J. (2025). The Dangers of Overreliance on Automation. FAA Safety Briefing Magazine.

Expert Comment: AI demand is booming for the right skills and for the
Over the past decade, automation technologies have been a key driver of change in the labour market. There has been a huge increase in the demand for AI skills, which has led to different recruitment

[4] Koutroumpis, P. (2023). Expert Comment: AI demand is booming for the right skills and for the technology ‘glue-guys’. University of Oxford.

From Efficiency Gains to Rebound Effects: The Problem of Jevons’ Paradox in AI’s Polarized Environmental Debate
As the climate crisis deepens, artificial intelligence (AI) has emerged as a contested force: some champion its potential to advance renewable energy, materials discovery, and large-scale emissions monitoring, while others underscore its growing carbon footprint, water consumption, and material resource demands. Much of this debate has concentrated on direct impacts -- energy and water usage in data centers, e-waste from frequent hardware upgrades -- without addressing the significant indirect effects. This paper examines how the problem of Jevons’ Paradox applies to AI, whereby efficiency gains may paradoxically spur increased consumption. We argue that understanding these second-order impacts requires an interdisciplinary approach, combining lifecycle assessments with socio-economic analyses. Rebound effects undermine the assumption that improved technical efficiency alone will ensure net reductions in environmental harm. Instead, the trajectory of AI’s impact also hinges on business incentives and market logics, governance and policymaking, and broader social and cultural norms. We contend that a narrow focus on direct emissions misrepresents AI’s true climate footprint, limiting the scope for meaningful interventions. We conclude with recommendations that address rebound effects and challenge the market-driven imperatives fueling uncontrolled AI growth. By broadening the analysis to include both direct and indirect consequences, we aim to inform a more comprehensive, evidence-based dialogue on AI’s role in the climate crisis.

[5] Luccioni, A. S., Strubell, E., & Crawford, K. (2025). From Efficiency Gains to Rebound Effects: The Problem of Jevons’ Paradox in AI’s Polarized Environmental Debate. The 2025 ACM Conference on Fairness, Accountability, and Transparency (FAccT '25).

The Collapse of Complex Societies
Political disintegration is a persistent feature of world history. The Collapse of Complex Societies, though written by an archaeologist, will therefore strike a chord throughout the social sciences. Any explanation of societal collapse carries lessons not just for the study of ancient societies, but for the members of all such societies in both the present and future. Dr. Tainter describes nearly two dozen cases of collapse and reviews more than 2000 years of explanations. He then develops a new and far-reaching theory that accounts for collapse among diverse kinds of societies, evaluating his model and clarifying the processes of disintegration by detailed studies of the Roman, Mayan and Chacoan collapses.

[6] Tainter, J. A. (1988). The Collapse of Complex Societies. Cambridge University Press.

Not all robots take your job, some become your co-worker | Brookings
Aaron Klein explores the impacts of automation on bank tellers.

[7] Klein, A. (2019). Not all robots take your job, some become your co-worker. Brookings Institution.

The Coal Question | Online Library of Liberty
A warning that Britain would face rising costs for coal as other nations industrialized and that this would have a deep impact on the British economy and way of life.

[8] Jevons, W. S. (1865). The Coal Question; An Inquiry concerning the Progress of the Nation, and the Probable Exhaustion of our Coal-mines.

The Fearless Future: 2025 Global AI Jobs Barometer – Hong Kong SAR Analysis
The AI jobs barometer reveals AI’s global impact on jobs, wages, skills, and productivity by examining close to a billion job ads from six continents.

[9] PwC. (2025). The Fearless Future: 2025 Global AI Jobs Barometer.

The future of employment: How susceptible are jobs to computerisation?
We examine how susceptible jobs are to computerisation. To assess this, we begin by implementing a novel methodology to estimate the probability of co…

[10] Frey, C. B., & Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254-280.

Antifragile | Random House Publishing Group

[11] Taleb, N. N. (2012). Antifragile: Things That Gain from Disorder. Random House.

Mastodon