Digitální příprava: Jak přežít ve světě ovládaném umělou inteligencí?

umělá inteligence

Isaac Asimov, spisovatel známý svými díly science fiction, napsal v roce 1972 „Tři zákony robotiky.“

umělá inteligence

Asimov tyto „zákony“ napsal, když přemýšlel o androidech, a představoval si svět, kde by roboti podobní lidem měli lidské pány a potřebovali by soubor programovacích pravidel, aby nemohli škodit.

Po 51 letech od prvního zveřejnění zákonů však technologie značně pokročila a lidé dnes mají jinou představu o tom, jak mohou roboti a umělá inteligence (UI) vypadat a jak s nimi lidé komunikují.

Tři zákony robotiky
Přestože je převzetí moci roboty stále spíše fikcí než skutečností, jako prepperovi se vyplatí projít si Asimovovy zákony a připravit se na situaci SHTF.

– První zákon: „Robot nesmí zranit člověka nebo svou nečinností umožnit, aby se člověk dostal do úhony.“
– Druhý zákon: „Robot musí poslouchat příkazy vydané člověkem, s výjimkou případů, kdy by tyto příkazy byly v rozporu s prvním zákonem.“
– Třetí zákon: „Robot musí chránit svou vlastní existenci, pokud tato ochrana není v rozporu s prvním a druhým zákonem.“

I když jsou tyto zákony fikcí, Asimovův myšlenkový postup by měli napodobit i preppeři.

Asimov nebyl prepper, ale uvědomoval si, že počítače poháněné umělou inteligencí, neboli androidi a roboti, jak říkal, mohou být navzdory mnoha výhodám nebezpeční, protože mohou myslet sami za sebe. Uvědomoval si také, jak obtížné je naprogramovat, aby nezradili své lidské pány.

Dichotomie zde spočívá v tom, že je třeba umožnit počítačům, aby se staly vnímavými neboli aby samy cítily a myslely, a zároveň si nad nimi zachovat určitou úroveň kontroly jako jejich pánové. Tento dvojí cíl může být nemožný, zejména proto, že lidé jsou stále v počátečním stádiu umělé inteligence a již se vyskytly problémy při vytváření nezbytných pojistek proti selhání, které by zajistily bezpečnost uživatelů.

S tím, jak technologie neustále postupují, se počítačové systémy s umělou inteligencí nyní učí samy mnohem rychleji, než se uvažuje o vytvoření nezbytných kontrolních mechanismů, které by zajistily jejich bezpečnost.

Při jednom z prvních experimentů s umělou inteligencí, kdy spolu komunikovaly dva počítače s nainstalovanými systémy umělé inteligence, trvalo jen několik minut, než si oba programy vytvořily vlastní jazyk a začaly spolu komunikovat. To znamenalo, že jejich lidští operátoři nebyli schopni oběma systémům UI porozumět.

Chatboti jsou počítačové programy, které napodobují lidskou konverzaci prostřednictvím textu.

V roce 2017, kdy byl experiment proveden, však chatboti ještě nebyli schopni vykonávat sofistikovanější funkce než jen jednoduché úkoly, jako je odpovídání na otázky zákazníků nebo objednávání jídla. Aby se to vyřešilo, pokusila se výzkumná skupina pro umělou inteligenci společnosti Facebook (FAIR) zjistit, zda lze tyto programy naučit vyjednávat.

Výzkumníci vyvinuli dva chatboty pojmenované Alice a Bob. Pomocí hry, ve které oba chatboti a lidští hráči vyměňovali virtuální předměty, jako jsou míče a klobouky, Alice a Bob ukázali, že dokáží uzavírat dohody s různou mírou úspěšnosti.

Výzkumníci společnosti Facebook pozorovali jazyk, když chatboti mezi sebou vyjednávali. Všimli si, že když botům nedali pokyn, aby se drželi pravidel angličtiny, začali Alice a Bob používat svůj vlastní jazyk: „odvozenou zkratku“, kterou si vymysleli, aby mohli komunikovat rychleji.

Výzkumníci sice experiment kvůli potenciálnímu nebezpečí zastavili, ale další výzkum umělé inteligence pokračoval i v dalších letech.

Neexistuje žádná kontrola potenciálních úkolů pro pokročilé systémy umělé inteligence
Systémy umělé inteligence, které mají moderní spotřebitelé k dispozici, překonávají systémy použité v experimentu na Facebooku. K dispozici je širší škála systémů umělé inteligence, z nichž některé si lze najmout prostřednictvím webových stránek, k plnění různých úkolů.

Neexistuje však žádný způsob, jak sledovat, jaké tyto úkoly mohou být, aby bylo zaručeno, že je nezneužijí ti, kteří chtějí tyto nástroje využít k trestné činnosti nebo k poškozování jiných osob.

První otázkou pro preppery je, zda se tyto systémy mohou obrátit proti svým lidským pánům?

Podle plukovníka letectva se to již stalo během experimentálního testu dronu. Plukovník se nakonec snažil svá slova popřít, ale o incidentu se objevily zprávy.

Během testu byl dron pověřen vyhledáváním a likvidací cílů, ale před střelbou potřeboval svolení lidského kontrolora.

Po nějaké době si dron uvědomil, že za „body“, o které přišel, může řídicí jednotka, která mu odepřela povolení k likvidaci určitých cílů. Aby problém vyřešil, dron „zabil“ kontrolora.

Během testu nebyl zraněn žádný skutečný člověk, ale je snadné si představit, jak by se scénář mohl zvrtnout, kdyby byl dron pověřen ochranou oblasti se skutečnými lidmi.

Test dronů také ilustruje potenciální problémy programování umělé inteligence. Testy ukazují, že může být nemožné naprogramovat vnímající UI tak, aby nedělala to, co chce, protože je dostatečně chytrá na to, aby našla způsob, jak neuposlechnout přímé příkazy.

Rogue drony řízené UI mohou škodit lidem, ale jak tomu zabránit?

V souvislosti s UI se objevuje mnoho etických otázek, ale odborníci zatím nedokázali předložit reálné odpovědi. Bohužel je možné, že na tomto problému nezačnou pracovat, dokud nedojde k nějaké tragédii.

V té době už by mohlo být na diskusi o etice spojené s UI pozdě. A USA nejsou jedinou zemí, která na technologii UI pracuje.

Své systémy umělé inteligence vyvíjejí i další země, spolu s některými, které s USA nemají přátelské vztahy, a to jak pro vojenské, tak pro civilní aplikace.

Umělá inteligence se již používá pro jednu nebezpečnou aplikaci: K vytváření falešných videí.

Krádež „autorských práv“ herce na jeho podobiznu není škodlivá, ale stále je považována za trestnou činnost. Až bude stejná úroveň umělé inteligence použita ke krádežím identity, nebudou v bezpečí ani preppeři, ani ti, kteří se o to nezajímají.

Jak se můžete připravit na nástup umělé inteligence?
Již nyní existuje na internetu umělá inteligence, která se používá k vytváření různého obsahu. To znamená, že se nemůžete vždy spolehnout na to, že obsah, který vidíte nebo čtete, vytvořili lidé.

V době psaní tohoto článku obsahuje nejméně 19,2 % článků na internetu nějaký obsah vytvořený umělou inteligencí. Nejméně 7,7 % těchto článků má 75 % nebo více obsahu vytvořeného umělou inteligencí.

Odborníci varují, že do roku 2026 bude nejméně 90 procent internetového obsahu vytvářeno umělou inteligencí.

Jak se to týká vás jako preppera?

Obsah generovaný umělou inteligencí může být problematický, protože to znamená, že se bude více politizovat.

Údaje naznačují, že Rusko a další země již nyní trollí americké webové stránky a potenciálně vytvářejí příspěvky a nahrávají články, které jsou podnětné a přispívají k politickému rozdělení v zemi. Tyto země mohou i nadále využívat umělou inteligenci ke zvýšení své účinnosti tím, že budou své články cíleněji zaměřovat.

Vzhledem k tomu, že potenciální nebezpečí UI s postupem času neustále narůstá, musíte si dávat větší pozor na to, co vidíte a čtete online. Nevěřte všemu, co vidíte nebo slyšíte, zejména obsahu s politickým podtextem.

Naučte se být nezávislým ověřovatelem faktů a udělejte si průzkum, abyste zjistili, zda to, co čtete a slyšíte, je pravda.

Dávejte si pozor na mainstreamová média, která mohou zprávy překrucovat tak, aby podpořily jejich vlastní politickou agendu. Zkontrolujte si spolehlivé zpravodajské zdroje, které vás informují o tom, co dělají ruské, čínské a další zpravodajské služby.

To také znamená dávat si pozor na to, co zveřejňujete na internetu. Nikdy nezveřejňujte na internetu osobní údaje nebo cokoli, co by mohli hackeři použít k tomu, aby se o vás pokusili cokoli zjistit.

Nepoužívejte systémy jako Alexa a Google Assistant, které často umožňují počítačům odposlouchávat konverzace uživatelů. I když společnosti, které tyto produkty vyrábějí, tvrdí, že uživatele nešpehují, různé zprávy o nich dokazují opak.

„Nekomputerizujte“ svůj život ukládáním svých dat online. Tato služba se může zdát pohodlná, protože ke svým datům můžete přistupovat odkudkoli, ale existuje také možnost, že ke všem vašim datům v cloudu mohou mít přístup jiné osoby.

Jste ochotni riskovat únik dat jen kvůli pohodlí? Společnosti nabízející tyto služby mají většinou ve smlouvách drobným písmem zakotveny věci, které jim umožňují odposlouchávat mikrofony vašeho počítače a prohlížet si snímky z kamer vašeho telefonu nebo notebooku.

Chcete-li se skutečně chránit před potenciálním nebezpečím umělé inteligence, musíte přehodnotit své používání internetu a počítačů. Technologie jsou pohodlné, ale musíte být zodpovědní a ujistit se, že vaše informace nemohou být použity proti vám těmi, kteří by vám mohli ublížit.

Neukládejte svá data online a odpojte věci, jako jsou mikrofony a kamery, pokud je nepoužíváte.

Obětujte pohodlí, abyste ochránili sebe a svou rodinu před potenciálním nebezpečím, které technologie umělé inteligence představují.

Prosím, lajkujte, sdílejte a přihlaste se k odběru tohoto kanálu, abychom mohli pokračovat ve sdílení zpráv, kterých se mainstream neodvažuje dotknout. Zůstaňte silní. Tento boj vyhrajeme.

Zdroj

0 0 votes
Article Rating
Subscribe
Upozornit na
guest
1 Komentář
Nejstarší
Nejnovější Most Voted
Inline Feedbacks
View all comments
Palino
Host
Palino
9 měsíců před

Problémom Asimovových robotických zákonov je to, že musia byť implementované. Ak nie sú, stane sa to, čo ono sám ukázal vo svojich dielach (napr. zbierka poviedok Já Robot) – naopr. že pre prácu v sťažených podmienkach bol oslabený účinok (inak nastavené hranice kritérií) pre vyhodnocovanie zákonov – a robot mohol aj zabiť.

1
0
Would love your thoughts, please comment.x