Altky.sk ako edukačný projekt a výzvy automatizovanej žurnalistiky
Rýchly rozvoj generatívnej AI umožnil vznik Altky.sk, edukačného a výskumného projektu, ktorý popularizuje STEM obsah v slovenčine a skúma vplyv automatizovanej žurnalistiky. Text rieši prínosy, riziká, limity AI, etiku, regulácie aj technologické výzvy.

Mal som tú česť trochu si pomudrovať na odbornom seminári TLIB – Budúcnosť knižníc: umelá inteligencia a inovácie v Štátnej vedeckej knižnici v Banskej Bystrici. V rámci môjho vystúpenia som predstavil projekt Altky.sk a jeho rolu ako edukačnej a výskumnej platformy v oblasti automatizovanej žurnalistiky, využívajúcej veľké jazykové modely (LLM).
Tento príspevok, ktorý zároveň vychádza v zborníku TLIB 2025, sumarizuje základné prínosy, riziká a technologické výzvy spojené s využívaním AI v médiách. Opiera sa o aktuálne dáta, odbornú literatúru a konkrétne skúsenosti z vývoja a prevádzky Altky.sk. Jeho cieľom je ponúknuť vyvážený pohľad na túto rýchlo sa rozvíjajúcu oblasť a zároveň podnietiť diskusiu o etike, regulácii a budúcnosti AI v žurnalistike.
Igor Šovčík
PS: toto nie je AI generovaný obsah :-)
AI v médiách a projekt Altky.sk
Generatívna umelá inteligencia za posledné roky výrazne prenikla do oblasti médií a žurnalistiky. Modely známe ako veľké jazykové modely (Large Language Models – LLM) dokážu generovať súvislé texty na základe obrovského korpusu dát, čo vytvára nové možnosti pre automatizované spravodajstvo a popularizáciu obsahu. Príkladom takéhoto prístupu je projekt Altky.sk, ktorý predstavuje edukačný a výskumný experiment zameraný na lokalizované STEM články. Všetok obsah na Altky.sk je generovaný umelou inteligenciou (AI). AI dokáže spracovať obsah z videí a vytvoriť z neho krátky a zrozumiteľný článok. (Altky.sk 2024) Cieľom je sprostredkovať slovenskému čitateľovi kvalitný obsah v jeho rodnom jazyku a zároveň overiť, ako automatizované publikovanie funguje v praxi. Altky.sk tak prepája dva rozmery: jednak popularizuje vedu a techniku formou dostupnou širokej verejnosti a zároveň slúži ako platforma na výskum vplyvu AI na tvorbu a šírenie informácií.
Od svojho vzniku (december 2024) Altky.sk pokrývajú široké spektrum tém od vedy a technológií cez históriu a kultúru až po ekonomiku a demonštruje tak šírku záberu, ktorú automatizovaná žurnalistika môže mať. Publikovanie článkov prostredníctvom LLM umožňuje rýchlo sprístupniť aktuálne poznatky a novinky publiku, ktoré by inak mohli zostať odkázané na cudzojazyčné zdroje. Tento prínos lokalizácie obsahu je významný najmä v STEM oblastiach (veda, technika, inžinierstvo, matematika), kde jazyková bariéra často bráni širšiemu prenosu informácií do slovenského jazykového kontextu. Altky.sk sa teda profilujú ako edukačný projekt popularizujúci odborný obsah v slovenčine, ale zároveň ako výskumný projekt, skúmajúci hranice a dopady použitia AI v mediálnom prostredí.
Základným predpokladom projektu je hypotéza, že automatizované systémy dokážu podporiť prácu novinárov a tvorcov obsahu, nie však úplne nahradiť ľudský faktor. Už prvé skúsenosti z Altky.sk ukazujú, že hoci AI dokáže vyprodukovať texty formálne podobné ľudským, kvalita a spoľahlivosť informácií musia byť dôsledne kontrolované. Platforma otvorene informuje o svojom spôsobe tvorby obsahu a upozorňuje na riziká a obmedzenia takéhoto prístupu. Pre udržanie dôveryhodnosti je nevyhnutná kombinácia AI a ľudskej supervízie a práve hľadanie tejto rovnováhy je jedným z predmetov skúmania projektu.
Prínosy a príležitosti automatizovaného publikovania
Nasadenie LLM v médiách so sebou prináša viacero potenciálnych prínosov. V kontexte Altky.sk je to najmä rýchla dostupnosť vedecko-technických poznatkov v lokálnom jazyku. Články kompilované pomocou AI môžu spracovať veľké množstvo informácií v krátkom čase a filtrovať podstatné fakty. To môže pomôcť preklenúť medzeru v informovanosti, napríklad sprístupnením slovenským čitateľom najnovších vedeckých objavov či technologických trendov bez časového omeškania a nutnosti čítať originálne zdroje v angličtine alebo iných cudzích jazykoch. Altky.sk takouto formou podporuje popularizáciu STEM a pokúšajú sa motivovať čitateľov k hlbšiemu záujmu o vedu a technológie. Tento edukačný rozmer je v súlade s poslaním knižníc a informačných inštitúcií, ktoré sa snažia sprístupňovať poznanie verejnosti.
Okrem rýchlosti a lokalizácie obsahu generatívna AI otvára priestor pre automatizáciu rutinných spravodajských úloh. V žurnalistike sa už niekoľko rokov využívajú jednoduchšie formy automatizácie, napríklad generovanie športových výsledkov či ekonomických správ na základe šablón. LLM posúvajú tieto možnosti ďalej, dokážu písať súvislé články, sumarizovať dlhé texty alebo prepisovať audiovizuálne záznamy do čitateľnej podoby. Pre redakcie to môže znamenať odbremenenie novinárov od určitých repetitívnych úloh a možnosť sústrediť sa na analytickú či investigatívnu činnosť. Napríklad Altky.sk automaticky generuje prehľady komplexných tém (ako AI výskum, energetika, filozofia vedy a pod.) z rôznych podkladov, čím demonštruje, že AI môže fungovať ako produktívny kurátor obsahu. V ideálnom prípade by takáto spolupráca človeka a stroja mohla zvýšiť objem aj kvalitu dostupných informácií.
Nemožno opomenúť ani inovačný a výskumný potenciál takýchto projektov. Altky.sk slúžia aj na experimentovanie s možnosťami LLM, testujú sa nové modely, promptovacie techniky, kombinovanie viacerých zdrojov a pod. Získané poznatky môžu prispieť k lepšiemu pochopeniu toho, ako AI „rozumie“ (či skôr nerozumie) obsahu, aké typy chýb produkuje, a kde sú hranice využitia AI. Pre akademickú obec aj prax je cenné sledovať reálny výkon AI v každodennom nasadení, mimo laboratórnych podmienok. Tým Altky.sk spracováva dáta pre výskum účinnosti automatizovaného publikovania, odozvy čitateľov a dopadu na mediálne prostredie.
Riziká a kritické aspekty “stochastických papagájov”
Napriek vyššie uvedeným prínosom je nevyhnutné hodnotiť nasadenie generatívnej AI v médiách triezvo a kriticky. Emily M. Benderová a jej kolegovia zaviedli termín stochastický papagáj (Bender, n.d.) práve na poukázanie na podstatu LLM, tieto modely nepracujú s významom slov ako ľudia, ale štatisticky skladajú vety na základe pravdepodobnostných vzorov v dátach. Inými slovami, jazykový model papagájuje obrovské množstvo textov z internetu bez skutočného porozumenia obsahu. Dôsledkom toho môžu AI generovať text, ktorý znie vierohodne, ale nemusí byť pravdivý či zmysluplný. V prostredí médií ide o zásadný problém, šírenie nepravdivých alebo skreslených informácií môže mať výrazné spoločenské následky. Benderová a spol. (2021) navyše upozornili na viaceré nebezpečenstvá spojené s veľkými modelmi: okrem spomínanej neinterpretovateľnosti aj možnosť zachovania a zosilnenia biasov (predpojatostí) z tréningových dát a vysoké environmentálne a finančné náklady spojené s ich vývojom (Bender, n.d.). Tieto zistenia rezonovali v odbornej komunite a viedli k intenzívnej diskusii o zodpovednom vývoji AI.
Ďalším kritickým hlasom je kognitívny vedec Gary Marcus, ktorý patrí medzi prominentných skeptikov súčasnej bubliny okolo LLM. Marcus opakovane zdôrazňuje, že hoci moderné modely ako GPT-4 dosahujú pôsobivé výsledky, stále ide o systémy zásadne odlišné od ľudskej inteligencie. V reakcii na odvážne tvrdenia niektorých vývojárov, že LLM už preukazujú záblesky všeobecnej umelej inteligencie (\ 2023) (AGI), Marcus argumentuje, že zásadné nedostatky ako halucinácie, nedôveryhodnosť faktov či neschopnosť spoľahlivo plánovať komplexné úlohy zostávajú nevyriešené (Marcus 2024). Inými slovami, aktuálne modely podľa neho nemajú “rozum”, len štatistickú koreláciu slov. Takéto vyjadrenia sú varovaním pred prehnaným optimizmom, nasadenie AI do médií ale i iných kritických systémov by nemalo nahrádzať schopnosť týchto systémov reálne porozumieť obsahu a kontextu.
Konkrétne skúsenosti z médií v poslednom roku potvrdzujú tieto obavy. Viaceré redakcie, ktoré experimentovali s automaticky generovanými článkami, narazili na vážne pochybenia AI. Napríklad magazín Men’s Journal publikoval začiatkom roka 2023 zdravotnícky článok napísaný AI, ktorý obsahoval prinajmenšom 18 vecných chýb a nepresností (Christian 2023). Po upozornení odborníkov musel časopis článok opraviť a čelil kritike za ohrozenie čitateľov nesprávnymi informáciami. Ešte väčšiu pozornosť vzbudil prípad technologického webu CNET, ktorý potajomky nasadil vlastného “AI novinára” na písanie finančných rád a spravodajských textov. Keď sa na to prišlo, ukázalo sa, že AI články nielen obsahovali viaceré faktické chyby, ale dokonca vykazovali známky plagiátorstva, mnoho pasáží bolo takmer doslova prevzatých z iných zdrojov (Christian 2023). CNET následne musel vydať opravy, označiť tieto texty varovaním a projekt dočasne pozastaviť. Tieto prípady názorne ilustrujú, že bez dôkladnej kontroly môžu automatizované systémy dezinformovať a porušovať etické štandardy žurnalistiky. Pre dôveryhodnosť médií je to vážna výzva, ak by sa AI obsah šíril bez korekcie, mohlo by dôjsť k erózii dôvery publika v médiá ako celok.
Z pohľadu projektu Altky.sk uvedené riziká znamenajú nutnosť opatrného prístupu. Hoci platforma prináša zaujímavý obsah, jej autori si uvedomujú, že text generovaný modelom môže obsahovať neúmyselné chyby či skreslenia. Preto je pri každom článku dôležité zvažovať jeho zdroje, preklepy a logickú konzistenciu. Altky.sk otvorene komunikujú, že využívajú AI a nabáda čitateľov k kritickému mysleniu, čitatelia vedia, že text nepísal človek, a môžu tomu prispôsobiť mieru svojej dôvery. Takáto transparentnosť je v súlade s odporúčaniami expertov, aby AI systémy v médiách boli označené a vysvetlené (čo presadzujú aj pripravované regulácie, viď nižšie).
Aktuálne trendy: adopcia AI v newsroome a postoj spoločnosti
Generatívna AI je pre mediálny sektor dvojsečná, láka efektivitou, no vzbudzuje obavy o kvalitu obsahu. Najnovšie prieskumy naznačujú, že značná časť spravodajských organizácií už začala tieto nástroje využívať, aspoň experimentálne. V globálnom prieskume z jari 2023 takmer polovica (49 %) opýtaných redakcií uviedla, že v nejakej miere používajú nástroje generatívnej AI ako ChatGPT (Henriksson 2023). Ide teda o pomerne rýchlu adopciu, ak berieme do úvahy, že verejne dostupné LLM sa objavili len nedávno. Najčastejšie ide o pomocné úlohy na tzv. back-end strane, napríklad automatizácia prepisov, sumarizácia dlhých textov, návrhy titulkov, alebo podpora pri rešerši. Týmto spôsobom AI skôr dopĺňa prácu novinárov než plne nahrádza tvorbu originálnych článkov.
Napriek entuziazmu z inovácie však panuje v redakciách opatrnosť. Vedúci pracovníci médií najviac poukazujú na obavy z nepresností a poklesu kvality informácií (Watson 2024) pri použití generatívnej AI. Hlavným rizikom je, že ak by novinári bezvýhradne dôverovali výstupu modelu, mohli by prehliadnuť chyby alebo zavádzajúce formulácie. Okrem toho sú tu otázky plagiátorstva a originality AI trénované na existujúcich textoch môže nevedome reprodukovať celé pasáže z cudzej tvorby, čo ohrozuje autorské práva a unikátnosť obsahu. Mnohé redakcie tak vnímajú AI skôr ako asistenta na vnútorné použitie, pričom finálnu publikáciu stále overuje človek. Tomu zodpovedá aj fakt, že podľa prieskumu iba 20 % newsroomov malo v tom čase vypracované oficiálne smernice, ako generatívnu AI používať (Henriksson 2023). Väčšina firiem teda ešte len hľadá vhodné postupy a etické hranice pri zavádzaní týchto nástrojov do praxe.
Dôležitý je aj postoj samotného publika k AI v žurnalistike. Prieskum Reuters Institute ukázal, že väčšina ľudí zatiaľ nie je komfortná s tým, aby správy boli tvorené AI, hoci aj s ľudskou pomocou, súhlas s takouto formou vyjadrilo len 36 % opýtaných (Arguedas 2024). Ešte menšia časť by dôverovala úplne autonómne generovaným správam. Tieto čísla naznačujú, že verejnosť zatiaľ nedôveruje “strojovým” novinárom a váži si ľudský faktor v procese tvorby správ. Z pohľadu médií a projektov ako Altky.sk z toho plynie potreba budovať dôveru pomaly a otvorene vysvetľovať, ako AI obsah vzniká, aké má limity, a zdôrazňovať, že cieľom nie je oklamať čitateľa, ale naopak priniesť mu hodnotné informácie novou formou. Súčasne bude nevyhnutné, aby AI v médiách podliehala podobným štandardom transparentnosti a zodpovednosti ako ľudskí novinári.
Regulačný rámec a etické štandardy (AI Act)
Rýchly nástup generatívnej AI vyvolal reakcie aj na úrovni regulačných inštitúcií. V Európskej únii od 1.Augusta 2024 vstúpil do platnosti Akt o umelej inteligencii (AI Act), vôbec prvý komplexný právny rámec pre umelú inteligenciu. Tento akt zavádza klasifikáciu AI systémov podľa miery rizika (neprijateľné, vysoko rizikové, obmedzené riziko, minimálne riziko) a stanovuje pre ne primerané povinnosti. Generatívne modely typu LLM budú pravdepodobne zaradené medzi systémy obmedzeného rizika, avšak s významnými požiadavkami na transparentnosť. Predpokladá sa, že poskytovatelia takýchto modelov budú musieť užívateľov informovať, že komunikujú s AI, a označovať AI-generovaný obsah (THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION 2024). Inými slovami, ak AI napíše článok alebo vygeneruje obrázok, zákon bude vyžadovať jasné označenie tejto skutočnosti, aby sa predišlo zámene s ľudským dielom. Tieto pravidlá reagujú práve na obavy z dezinformácií a deepfake, ak bude obsah transparentne označený, používateľ ho môže posudzovať kritickejšie. Samozrejme, otázkou zostáva vymožiteľnosť voči nelegitímnym aktérom, no pre mainstreamové médiá by malo ísť o štandard. Altky.sk v tomto smere ide príkladom tým, že svoj AI pôvod neskrýva, ale deklaruje ho ako súčasť svojho brandu. Do budúcna môže byť práve transparentnosť kľúčom k akceptácii AI obsahu.
Okrem označovania obsahu sa diskutuje aj o zodpovednosti za škody spôsobené AI. V kontexte médií by to znamenalo odpovede na otázky, kto nesie právnu zodpovednosť, ak automaticky generovaný článok niekomu uškodí (napríklad šírením nepravdy poškodiť povesť osoby). AI Act sa snaží nastaviť mechanizmy zodpovednosti naprieč celým reťazcom, od tvorcov modelov cez poskytovateľov až po používateľov v konkrétnych aplikáciách. Pre projekty ako Altky.sk to bude znamenať nutnosť mať interné postupy na kontrolu kvality a možnosť promptne korigovať alebo stiahnuť problematický obsah. V širšom zmysle by sa mohli uplatniť existujúce tlačové zákony a etické kódexy aj na AI články, médiá by ich mali posudzovať s rovnakou zodpovednosťou, ako keby ich písal redaktor.
Popri legislatíve EÚ vznikajú aj rôzne samoregulačné iniciatívy. Niektoré médiá a novinárske organizácie vydávajú odporúčania, ako eticky využívať AI. Napríklad zásada, že AI sa má využívať len ako pomocný nástroj a všetok publikovaný text má prejsť redakčnou kontrolou človeka, alebo že AI nesmie byť použitá na tvorbu správ bez verifikácie faktov. Veľkou témou je tiež ochrana súkromia a dát, LLM pri používaní odosielajú dotazy na servery poskytovateľa (napr. OpenAI), čím potenciálne dochádza k úniku citlivých informácií z redakcie. Aj to je aspekt, ktorý musia newsroomy zvážiť (napríklad právne oddelenia mnohých médií varovali pred vkladaním nepublikovaných informácií do ChatGPT). Všetky tieto snahy smerujú k tomu, aby sa inovácia v podobe AI skĺbila s rešpektovaním zásad žurnalistiky a práv čitateľov na pravdivé informácie.
Technologické riešenia pre spoľahlivejšiu AI
Popri organizačných a regulačných opatreniach prebieha intenzívny vývoj aj na strane samotných AI nástrojov, s cieľom zlepšiť ich presnosť a spoľahlivosť. Jedným z aktívnych smerov výskumu je minimalizácia tzv. halucinácií modelov, teda prípadov, keď si AI “vymýšľa” nepravdivé údaje. Existuje niekoľko prístupov, ako tieto nežiaduce javy zmierniť:
- Retrieval-Augmented Generation (RAG): Je technika, ktorá umožňuje modelom generatívnej umelej inteligencie získavať a začleňovať nové informácie (“Retrieval-augmented generation”, n.d.). Namiesto spoliehania sa výlučne na implicitné “vedomosti” z tréningu si model vyhľadá potrebné fakty z overených zdrojov a následne ich zakomponuje do textu. Tento prístup model “uzemňuje” v realite a znižuje riziko, že uvedie niečo nepodložené. Praktickým príkladom je integrácia internetového vyhľadávania. Niektoré AI asistenty vedia pri generovaní článku zároveň robiť webovú rešerš a citovať nájdené zdroje. Altky.sk sa už v úvode rozhodli ísť touto cestou a práve podkladové videá od overených tvorcov slúžia ako spoľahlivá báza pre generovaný text.
- Pokročilé promptovanie a inštrukcie: Výskum ukazuje, že to, ako je AI model “požiadaný” o odpoveď, výrazne ovplyvňuje kvalitu výstupu. Využívajú sa tzv. systémové správy alebo šablóny, ktoré modelu prikážu vždy uvádzať zdroj informácie, odpovedať len ak si je istý, alebo vynechať špekulácie. Takéto štruktúrované prompty môžu redukovať výskyt halucinácií tým, že model vedú k konzervatívnejšiemu postupu (radšej neodpovie, ak nemá dáta). Ďalej sa využíva chain-of-thought technika, kedy model najprv vygeneruje krok-za-krokom svoje uvažovanie (ktoré sa interne skontroluje) a až potom finálnu odpoveď, čím sa odhalia nelogické skoky. V kontexte pokročilého promptovania sa Altky.sk ubrali viac konzervatívnou cestou nakoľko, väčšie množstvo promptov, alebo pasážovanie obsahu cez viacero agentov môže zlepšiť “vnímanú kvalitu” obsahu no neodstraňuje “halucinácie” úplne a teda ide skôr o hru s pravdepodobnosťou ktorá je vo výsledku horšie auditovateľná.
- Dodatočné tréningy a fine-tuning: Poskytovatelia LLM neustále zlepšujú modely tréningom na kvalitnejších datasetoch a pomocou posilňovaného učenia s odozvou od ľudí (RLHF). Ak model často halucinuje v určitej doméne (napríklad medicína), je možné ho dodatočne dotrénovať na kuratívnom súbore medicínskych textov s dôrazom na fakty. Taktiež vznikajú špecializované modely (fact-checker AI), ktoré by mohli overovať tvrdenia generovanej odpovede pred publikovaním. Na roadmape projektu Altky.sk je doplnenie “dalšej Ai” ktorá bude mať na starosti len korekciu slovenskej gramatiky, nakoľko vzhľadom na veľkosť slovenského dátového korpusu je pravdepodobnosť gramatických či štylistických chýb vo výstupoch komerčných modelov stále vysoká.
- Moderovanie a filtre: Dnes veľké modely už obsahujú vrstvy na filtrovanie nežiadúceho obsahu (toxické výroky, hate speech atď.). Podobné mechanizmy sa dajú aplikovať aj na detekciu zjavne nezmyselných či nesúvislých výstupov. Hranicu kreativity AI možno ohraničiť, ak text vybočí mimo zmysluplný rámec, systém ho nepublikuje bez ľudského zásahu.
Hoci žiadne z týchto riešení nie je všeliekom, kombináciou viacerých sa dá dosiahnuť citeľné zlepšenie spoľahlivosti. Vývoj ide rýchlo dopredu aj vďaka silnej motivácii nasadiť AI do komerčnej praxe bezpečne, firmy ako OpenAI, Google či Microsoft investujú do týchto opatrení, lebo chápu, že ak má byť generatívna AI široko prijatá, musí byť dôveryhodná. Pre projekty typu Altky.sk je povzbudivé, že komunita pracuje na nástrojoch, ktoré im umožnia poskytovať hodnotný obsah s menším rizikom chýb. Zároveň ale platí, že úplné eliminovanie halucinácií je otvorený problém výskumu a ľudský dohľad zatiaľ nič nenahradí.
Environmentálne aspekty AI v médiách
Jednou z často prehliadaných tém v debate o AI (ktorú však zvýrazňujú Benderová a ďalší) je environmentálny dopad veľkých modelov. Tréning a prevádzka LLM sú mimoriadne výpočtovo náročné a spojené s vysokou spotrebou energie. Napríklad odhadovaná uhlíková stopa spojená s vytvorením modelu GPT-3 (175 miliárd parametrov) dosiahla približne 552 ton CO₂, čo zodpovedá emisiám 123 osobných áut počas jedného roka. Ide o dôsledok spotreby 1 287 MWh elektriny počas tréningu GPT-3 (Associated Press 2023). Generatívna AI teda nie je “neviditeľná”, v dátových centrách bežia tisíce špičkových GPU, ktorých odber sa premieta do uhlíkovej stopy. Pokiaľ by médiá masovo nasadili takéto modely, vyvstáva otázka trvalej udržateľnosti: Je etické vytvárať tisíce článkov AI denne, ak to znamená značnú spotrebu energie?
Na druhej strane, treba dodať, že technologické firmy si tento problém uvedomujú a začínajú podnikať kroky na zmiernenie dopadov. Veľkí poskytovatelia cloudových riešení a AI (Microsoft, Google, OpenAI) investujú do čistej energie a snažia sa napájať svoje dátové centrá solárnou či veternou elektrinou. Cieľom je, aby rastúci dopyt po výpočtovom výkone neznamenal priamo úmerný rast emisií. Takisto prebieha výskum, ako trénovať modely efektívnejšie, či už optimalizáciou algoritmov, využitím špecializovaného hardvéru, alebo recykláciou už natrénovaných modelov (tzv. model distillation). Zaujímavým projektom bol napríklad francúzsky model BLOOM s podobnou veľkosťou ako GPT-3, no trénovaný s oveľa menšou uhlíkovou stopou (cca 30 ton CO₂) vďaka využitiu zelených zdrojov energie (Associated Press 2023). Dobrým príkladom je aj snaha spoločnosti DeepSeek, ktorá tvrdí, že našla spôsob, ako trénovať veľké jazykové modely podstatne efektívnejšie, čím by sa mala znížiť ich uhlíková stopa. Avšak, ako upozorňuje článok publikovaný na portáli The Conversation, takéto technologické zefektívnenie nemusí automaticky znamenať celkové zníženie environmentálnej záťaže. V hre môže byť tzv. Jevonsov paradox: ak sa technológia stane efektívnejšou a lacnejšou, môže to viesť k jej masovejšiemu využívaniu, čo v konečnom dôsledku môže celkovú spotrebu zdrojov a emisie paradoxne zvýšiť, namiesto znížiť (Howson 2025).
Pre sféru médií a informačných inštitúcií by environmentálny rozmer nemal byť okrajový. Knižnice a verejné médiá, ktoré si zakladajú na poslaní pre budúce generácie, by mali pri adoptovaní AI riešení zvažovať ich ekologickú stopu. Napríklad Altky.sk ako výskumný projekt môže poskytnúť údaje o tom, koľko energie stojí jeho prevádzka, a či je napríklad možné znížiť frekvenciu generovania obsahu bez zásadnej straty hodnoty pre čitateľa. Takéto údaje by boli cenné napríklad aj pre tvorbu odporúčaní, ako zodpovedne zavádzať AI v knižniciach či redakciách s ohľadom na klimatické ciele.
Záver
Automatizované publikovanie obsahu pomocou umelej inteligencie už nie je sci-fi, ale realita, v ktorej sa médiá a informačné inštitúcie musia naučiť pohybovať. Projekt Altky.sk ukazuje jednu z ciest, ako možno generatívnu AI využiť pozitívne, na sprístupnenie vedeckých a odborných informácií v lokálnom jazyku a experimentovanie s novými formátmi žurnalistiky. Prináša prísľub efektivity a širšieho záberu, no zároveň nastavuje zrkadlo limitom tejto technológie. Skúsenosti za prvé mesiace fungovania potvrdzujú, že bez dôkladnej kontroly hrozí šírenie nepravdivých či eticky sporných obsahov. Práca Benderovej, Marcusa a ďalších kritikov slúži ako dôležitá protiváha k prehnanému optimizmu a pripomína nám, že slová vygenerované strojom nemusia odrážať realitu, a že skutočná inteligencia v umelých systémoch je zatiaľ veľmi úzka a krehká.
Pre odbornú aj širšiu verejnosť je kľúčové pochopiť, že generatívna AI v médiách je mocný no nedokonalý nástroj. Tak ako každý nástroj, aj tento môže napáchať škody, ak sa používa neuvážene, alebo priniesť úžitok, ak sa nasadí zodpovedne a s jasným cieľom. Výzvou najbližších rokov bude nastavenie správneho balansu kombinácie AI a ľudského vstupu v tvorbe obsahu, rovnováhy medzi inováciou a udržaním kvality a pomeru medzi využitím globálnych modelov a rešpektovaním miestnych potrieb či hodnôt. Regulačné rámce ako AI Act poskytnú potrebné mantinely, no veľa závisí aj od samotných médií a projektov, ako si upravia interné pravidlá a akú kultúru okolo AI vytvoria.
Altky.sk ako pilotný projekt na Slovensku môže v tomto smere zohrávať priekopnícku úlohu. Jeho prínosy a poučenia budú cenné nielen pre digitálne médiá, ale aj pre knižnice, školstvo a všetkých, ktorí pracujú s informáciami. Ak dokážeme pretaviť vízie AI do zodpovednej praxe, tak, aby slúžila človeku, a nie naopak, potom sa naplní ten pozitívny scenár budúcnosti, kde umelá inteligencia rozširuje obzory poznania bez toho, aby sme rezignovali na hodnoty pravdy, kritického myslenia a udržateľnosti.
Zdroje
- Sparks of Artificial General Intelligence: Early experiments with GPT-4, 2023. “[2303.12712] Sparks of Artificial General Intelligence: Early experiments with GPT-4.” arXiv.
- Altky.sk. 2024. “Altky.sk: Ako funguje náš obsah, jeho riziká a obmedzenia.” altky.sk.
- Arguedas, Amy R. 2024. “Public attitudes towards the use of AI in journalism.” Reuters Institute.
- Associated Press. 2023. “ChatGPT: What is the carbon footprint of generative AI models?” Euro news.
- Bender, Emily. n.d. “Stochastic parrot.” Wikipedia. Accessed Apríl 14, 2025.
- Christian, Jon. 2023. “CNET's AI Journalist Appears to Have Committed Extensive Plagiarism.” futurism.com.
- Christian, Jon. 2023. “Magazine Publishes Serious Errors in First AI-Generated Health Article.” futurism.com.
- THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION. 2024. “Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and.” EUR-Lex.
- Henriksson, Teemu. 2023. “New survey finds half of newsrooms use Generative AI tools; only 20% have guidelines in place.” WAN-IFRA.
- Howson, Peter. 2025. “DeepSeek claims to have cured AI's environmental headache. The Jevons paradox suggests it might make things worse.” The Conversation.
- Marcus, Gary. 2024. “The Sparks of AGI? Or the End of Science?” Marcus on AI.
- “Retrieval-augmented generation.” n.d. Wikipedia. Accessed Apríl 14, 2025.
- Watson, Amy. 2024. “Leading concerns about using generative AI tools in newsrooms according to newsroom executives worldwide as of May 2023.” statista.com.
Komentáre ()