fbpx

Doba, kdy si stroje začnou uvědomovat samy sebe, přijde díky algoritmům velice brzy. Teď je otázka, zda by takový robot s vlastním vědomím neměl mít i nějaké právní ukotvení

Zveřejněno: 19. 9. 2019

Umělou inteligenci (Artificial Intelligence – AI) už sice považujeme za nedílnou součást našeho života, ale jsme pořád ještě na začátku. Počet zařízení totiž bude stoupat exponenciálně. Do roku 2040 pak můžeme očekávat vznik umělé obecné inteligence (Artificial General Intelligence – AGI), která bude mít schopnost zpracovat informace, porozumět nebo se naučit jakékoli intelektuální úloze, kterou doposud zvládal jen člověk. Jak se vyvine náš vztah?

Zatím se na virtuálního asistenta nedíváme jako na nástroj, u kterého bychom uvažovali, zda jsme jeho pánem a „on“ jen pouhý otrok. Robot je prostě něco, čemu jsme dali snímače obrazu jako oči, mikrofony jako uši, kontaktní senzory pro dotyk a další a další potřebné vybavení, ale pořád je to jen stroj.

Zařízení s AI je jedno, jestli mu nařídíme, aby provedlo určité věci. Určitě mu naplnění našeho příkazu nepřináší potěšení z úspěchu ani nepociťuje negativní emoce.

Tady ale musíme lehce odbočit. K sofistikovaným robotům, které (nebo spíš kteří?) slouží v armádě například k vyhledávání výbušnin či detekci nepřítele, si kolikrát jeho obsluha vytvoří jakýsi pseudosociální vztah a jejich případná ztráta v akci pak na ni působí silně emocionálně. Je to však především výsledek extrémní situace s nestandardními sociálními vazbami. To jen na okraj… Zařízení s AI je zcela jistě jedno, jestli mu nařídíme, aby provedlo určité věci. Určitě mu naplnění našeho příkazu nepřináší potěšení z úspěchu ani nepociťuje negativní emoce, jestliže se něco nepovede. Ani my nemáme nutkání mu vynadat či ho pochválit, stejně jako nechválíme či nepeskujeme kladivo nebo pero.

Lidská práva pro šimpanze?

Kdysi jsme se stejně dívali na lidské otroky. Takový otrok byl prostě podle stávajících právních systémů i po faktické stránce movitým majetkem svého pána. A ten s ním také podle toho mohl nakládat. Není to tak dlouho, co bylo otroctví zakázáno prakticky ve všech zemích světa, i když, pravda, na mnoha místech ještě skrytě existuje. Proměnil se i náš vztah k zvířatům. Už to v mnoha státech světa není „věc“, se kterou by si její majitel mohl nakládat podle libosti.

V zásadě má dnes zvíře, co se týče práv, lepší postavení než kdysi lidský otrok.

V roce 2015 dokonce vrchní soud v New Yorku přiznal šimpanzům sloužícím pro výzkumné účely stejné právní postavení jako lidem. Po dvou letech odvolacího řízení sice soud rozhodl, že šimpanzi nemohou mít nárok na lidská práva, protože mimo jiné nenesou za své skutky odpovědnost, ale i to znamenalo určitý průlom do vztahu člověka k inteligentním bytostem. Pravda, určité druhy primátů si můžeme koupit na trhu stejně jako kdysi otroka, ale v zásadě má dnes zvíře lepší postavení než kdysi lidský otrok.

Etické problémy s předstihem

Zákony o otroctví se v současné době vztahují pouze na člověka. Co se ale stane, pokud roboti (či jakékoli jiné zařízení) dostanou již zmíněnou umělou obecnou inteligenci, tedy AGI? Budeme se na tyto nástroje s umělou obecnou inteligencí dívat stejným způsobem jako třeba na šimpanze, nebo jako na zařízení s právy, které má třeba pračka? Podle předpokladů by zařízení s AGI měla zvládat všechny úkoly lépe, než bychom to mohli dokázat my lidé. Budou přinejmenším stejně chytrá. Zatím se spíš diskutuje o tom, zda si taková budoucí inteligence nenadělá z lidí otroky. Ale tady promýšlíme situaci opačnou, kdy si umělá inteligence uvědomí sebe sama a bude si moci klást otázky.

Etické problémy spojené s používáním nových technologií se většinou řeší, až když vyvstanou.

Pochopitelně, že od lidí se bude vždy lišit, ovšem budeme to schopni tak vnímat? A bude to tak schopno vnímat i zařízení s AGI? Jestliže ale vyvineme takové zařízení s inteligencí, jež si bude vědoma sama sebe, budeme s ním zacházet jako s nástrojem? Nebude to pak svým způsobem nový druh otrokářství? Je správné, aby pro vás pracoval „robotrok“, stroj, který si je vědom sám sebe? Etické problémy spojené s používáním nových technologií se většinou řeší, až když vyvstanou. Tady bychom se ale měli poučit a začít pracovat na legislativě s předstihem. Nechceme přece vytvořit nedopatřením nějakého toho Spartaka, který by vedl novodobou vzpouru otroků.

Související…

Vědec, který choval Hawkinga na klíně: Stroje se s námi spojí. I je ohrozí oteplování planetyMáma jí zabavila telefon. Tweetovala opravdu Dorothy přes lednici?Nový algoritmus dokáže rozpoznat, zda falešnou zprávu napsal algoritmus

foto: Shutterstock, zdroj: Medium.com (Data Driven Investor)

Tipy redakce

Proč se krade i písek z pláže? Je to cenná komodita, která mizí stejně jako voda

Proč se krade i písek z pláže? Je to cenná komodita, která mizí stejně jako voda

Loni v létě zaplatil jeden britský turista na Sardinii pokutu 1 032 eur, když byl...

Twitter uživatelům ukazuje, co mají rádi za reklamu. A někdy je dost mimo

Twitter uživatelům ukazuje, co mají rádi za reklamu. A někdy je dost mimo

Inferred interests neboli „odvozené zájmy“ je název funkce sociální sítě Twitter,...

Jde ještě o klimatickou nouzi, nebo už paniku? 10 otázek a odpovědí o přehřívání Země

Jde ještě o klimatickou nouzi, nebo už paniku? 10 otázek a odpovědí o přehřívání...

Praha 7 vyhlásila v květnu stav klimatické nouze , jak ji (a nejen ji, ale celou...

Pokračováním v prohlížení těchto stránek souhlasíte s Podmínkami užití a Pravidly využití Cookies.