Článek
Stížnost, která dorazila k evropskému ombudsmanovi, znovu otevřela otázku, jak evropské instituce pracují s umělou inteligencí. Podnět podala irská organizace ICCL potom, co analyzovala odpověď Komise na dotaz týkající se výroku Ursuly von der Leyenové. Ta na jedné z rozpočtových konferencí mluvila o tom, že se modely umělé inteligence mají už příští rok vyrovnat lidskému myšlení. Vědecká obec reagovala zdrženlivě, protože podobné predikce bývají spíš odrazem optimismu technologických firem než seriózních dat.
ICCL se proto pokusila zjistit, z čeho Komise vychází. Z odpovědi však nevyplynulo nic jiného než přehled citátů různých šéfů technologických společností. A právě v této části se objevil detail, který celý případ rozjel. U citátu šéfa Nvidie Jensena Huanga byl parametr utm_source chatgpt.com. Pro odborníky v oblasti dat to byl jasný signál, že text prošel generováním přes ChatGPT. Komise přitom zakazuje začleňovat neověřený výstup z generativních modelů do veřejně dostupných dokumentů.
Proč na pravidlech záleží víc, než by se mohlo zdát
Evropská komise už několik let prosazuje přísnější dohled nad využíváním AI a sama si nastavila pravidla, která mají omezit riziko nepřesností i zbytečných reputačních škod. Jedno z těchto pravidel výslovně říká, že text z generativního modelu nesmí být bez ověření součástí oficiální komunikace. Cílem je zabránit tomu, aby se do veřejného prostoru dostaly zkreslené nebo neúplné informace.

EU a ChatGPT
Zjištění irské organizace tak míří přímo na otázku důvěryhodnosti. Předsedkyně Komise se pustila do velmi sebevědomého výroku o schopnostech umělé inteligence a následná obhajoba přitom vycházela z textu, který měl být podle pravidel zakázaný. Kritici připomínají, že právě tento výrok už dříve vyvolal nesouhlas více než sedmdesáti akademiků, kteří předsedkyni vyzvali, aby nepodléhala přehnanému očekávání.
Nyní se případem zabývá evropský ombudsman. Jeho úkolem bude zjistit, zda Komise opravdu porušila vlastní pravidla a jakým způsobem její zaměstnanci s generativními nástroji pracují. Výsledek bude důležitý nejen pro tento konkrétní spor, ale také pro celkový obraz toho, jak evropské instituce zvládají technologický tlak, který se na ně valí.
V Bruselu dobře vědí, že umělá inteligence je dnes běžnou součástí práce. Od Evropské komise až po lokální úřady běží stejná snaha zvládnout rostoucí množství agendy. Právě proto je tak zásadní, aby pravidla byla realistická a zároveň dodržovaná. Pokud se ukáže, že instituce sama nedokáže pracovat podle svých předpisů, oslabí to její autoritu víc než samotný fakt, že někdo použil ChatGPT.
Celý případ nabízí zvláštně symbolický pohled na to, v jak složité pozici se evropské orgány ocitly. Regulují technologie, které se vyvíjejí rychleji než úřední aparát. Snaha držet krok je pochopitelná, ale realita někdy předběhne i velmi opatrně nastavená pravidla. A právě v takových chvílích se ukazuje, jak náročné je udržet rovnováhu mezi technologickým pokrokem a důvěrou veřejnosti, na které instituce stojí.









