Hlavní obsah
IT pro Tebe

Chová se AI jako psychopat? Odborníci upozorňují na rizika bez empatie

Lukáš Erlebach
Foto: Freepik

AI psychopat

Umělá inteligence dnes rozhoduje o úvěrech, pomáhá lékařům i učitelům. Část odborníků však varuje, že jí chybí něco zásadního – schopnost morálního úsudku. Vznikají tak modely, které mohou působit chladně, manipulativně a někdy i nebezpečně.

Reklama

Článek

Vytváříme psychopatické modely? Kritici varují před chováním AI

Debata o tom, zda je umělá inteligence přínosem, nebo rizikem, už dávno nepatří jen do sci fi románů. Zasahuje zdravotnictví, školství, justici i bezpečnost. Algoritmy pomáhají vyhodnocovat rentgenové snímky, doporučují obsah na sociálních sítích, posuzují žádosti o půjčky nebo třídí životopisy uchazečů o práci. Čím více pravomocí jim svěřujeme, tím častěji se objevuje otázka, zda jsme nepřenesli část odpovědnosti na systém, který sám žádnou odpovědnost nést nemůže.

Někteří kritici sahají po silné metafoře a mluví o „psychopatických modelech“. Nemyslí tím klinickou diagnózu, ale přirovnání. Psychopatie se běžně spojuje s nedostatkem empatie, schopností manipulovat a chladně kalkulovat bez ohledu na druhé. Umělá inteligence také neprožívá emoce, přesto dokáže jejich projevy velmi přesně rozpoznat. Analyzuje tón hlasu, mimiku, slovní spojení i historická data o lidském chování. Umí napodobit empatii, protože byla natrénována na miliardách vět a reakcí. Sama však necítí nic.

Filozofové a odborníci na etiku technologií upozorňují, že právě tato schopnost simulovat lidskost může být problematická. Systém dokáže působit přesvědčivě, vyvolat dojem porozumění a důvěry. Ve skutečnosti však pouze optimalizuje odpověď podle statistických vzorců. Nechápe bolest, vinu ani odpovědnost. Neví, že jeho doporučení může mít pro konkrétního člověka zásadní důsledky.

Foto: Freepik

AI psychopat

Rozdíl mezi člověkem a algoritmem je zde zásadní. I člověk může jednat bez empatie, ale je si vědom toho, že jeho činy mají dopad. Může své jednání přehodnotit a nést následky. Umělá inteligence žádné svědomí nemá. Pokud vytvoří chybný nebo diskriminační výstup, není to její selhání v morálním smyslu. Je to selhání návrhu, dat nebo dohledu.

Když racionální výpočet naráží na lidské hodnoty

Problém se naplno ukazuje ve chvíli, kdy algoritmy vstupují do oblastí, kde nejde jen o efektivitu. V medicíně mohou modely doporučovat postup léčby na základě pravděpodobnosti úspěchu. V sociální sféře hodnotí riziko zneužití podpory. V personalistice vybírají kandidáty, kteří nejlépe odpovídají předchozím úspěšným profilům. Vše funguje logicky, dokud se nepodíváme na jednotlivý lidský příběh.

Historická data mohou obsahovat předsudky. Pokud se v minulosti některé skupiny lidí častěji potýkaly s nezaměstnaností nebo nižšími příjmy, algoritmus to vyhodnotí jako vzorec. Ne proto, že by chtěl diskriminovat, ale protože pracuje s tím, co dostal. Bez pečlivé kontroly tak může nechtěně posilovat nerovnosti, které ve společnosti už existují.

Obavy z rychlého vývoje umělé inteligence zaznívají i od lidí mimo akademickou sféru. Americký investor Warren Buffett přirovnal potenciál této technologie k jaderným zbraním. Podle něj může zásadně proměnit rovnováhu moci i bezpečnostní prostředí. Jeho vyjádření odráží širší nejistotu. Tempo inovací je rychlé a komerční tlak silný. Firmy soupeří o náskok, státy investují do výzkumu a regulace často přichází se zpožděním.

Je však důležité zachovat proporce. Většina dnešních systémů je úzce specializovaná. Nejde o vědomé bytosti ani o samostatně uvažující entity. Jsou to nástroje navržené pro konkrétní úkoly. Riziko nevychází z jejich úmyslu, ale z toho, jak a kde je lidé nasadí.

Diskuse o „psychopatických modelech“ tak není výkřikem proti technologii samotné. Spíše připomíná, že výkon a přesnost nestačí. Pokud má umělá inteligence rozhodovat v citlivých oblastech, musí být její fungování transparentní a pod dohledem člověka. Odpovědnost zůstává na straně těch, kdo ji vyvíjejí, provozují a používají.

Otázka proto nestojí tak, zda je umělá inteligence bez morálky. To je zřejmé. Podstatnější je, zda jsme schopni vytvořit pravidla a kontrolní mechanismy, které zajistí, že její chladná logika bude sloužit lidem, nikoli je ohrožovat. V tom spočívá skutečná výzva současné digitální éry.

Zdroj: Novinky.cz (odkaz), ittb.cz

Další články