Může být auto morální a jednat na silnici ohleduplně jako (někteří, ale předpokládejme, že většina...) lidé? Němečtí vědci zveřejnili průlomovou studii, podle které může být lidská mravnost namodelována takovým způsobem, že ji mohou převzít i stroje a technologie. Stačí, když lidé strojům tyto vlastnosti předají.
Otázku, zda mohou stroje jednat morálně, zkoumali odborníci z Institutu kognitivní vědy na univerzitě v Osnabrücku. Svoje poznatky poté publikovali v magazínu Frontiers in Behavioral Neuroscience. K výzkmu vědci využili virtuální realitu, mohli tak zkoumat lidské chování v nasimulovaných situacích v silničním provozu.
Dobrovolníci během experimentu například řídili auto v mlhavém dni v příměstské čtvrti. Řidičům byly stavěny do cesty různé předměty, ale i zvířata či lidé. Výzkumníci zjišťovali, jak se řidiči chovají, koho na silnici i v mezních situacích ušetří a kdy dají přednost své bezpečnosti. Vědci pak na základě výsledků a jejich porovnání se statistikami zjistili, že morální rozhodnutí řidičů během nepředvídatelné dopravní kolize lze dobře vysvětlit a snadno modelovat.
Rozhodnutí nejsou závislá na kontextu
Jedním z autorů vůbec první studie tohoto druhu je Leon Sütfeld. Podle něj se předpokládalo, že morální rozhodnutí jsou závislá čistě na kontextu. Proto nemohla být modelována a ani popsána algoritmicky.
"Zjistili jsme ale úplný opak," říká Leon Sütfeld. Lidské chování v krizových situacích podle něj může být modelováno poměrně snadno. Jedná se o model, který je založený na hodnotě života, již každý z účastníků přičítal každému živému tvorovi, kterého potkal na své cestě. "Z toho vyplývá, že lidské morální chování může být dobře popsáno algoritmy, které by mohly být použity i stroji," dodává Sütfeld.
Výsledky studie mají dopad na diskuze o chování vozidel a jiných strojů, které se ocitají v krizových situacích. Německé ministerstvo dopravy a digitální infrastruktury (BMVI) definovalo 20 etických zásad, které by měli konstruktéři do "autonomních" vozidel promítnout. Většina z nich se týká právě dopravních nehod. Konstruktéři ale dosud předpokládali, že morální chování člověka nemůže být do strojů přeneseno.
Strojově morální dilema
Spoluautor výzkumu, profesor Gordon Pipa, potvrzuje že je možné stroje naprogramovat tak, aby vyhovovaly požadavkům BMVI. "Musíme se ale ptát, veřejnosti, zda by takové autonomní systémy měly přijímat morální úsudky. A jestliže ano, měly by imitovat morální chování napodobováním lidských rozhodnutí?" ptá se Pipa. "Pokud by se chovaly podle etických teorií a něco stejně jako člověk pokazily, kdo nebo co by bylo na vině?" táže se dále Gordon Pipa.
Vědci uvádějí i příklad, kdy může etika stroje selhat. Podle etických principů by dítě, které běží na silnici, bylo klasifikováno jako zásadní zdroj rizika. Má se mu stroj vyhnout a srazit dospělého muže stojícího na chodníku? Podle německých principů ano, ale myslí takto "eticky" všichni lidé?
"Teď, když víme, jak provádět lidská etická rozhodnutí na strojích, máme jako společnost stále ještě dilema," vysvětluje další spoluautor studie, profesor Peter König. "Za prvé se musíme rozhodnout, zda by vůbec morální hodnoty měly být zahrnuty do pokynů pro chování strojů, a za druhé si musíme říct, zda by se stroje měly chovat stejně jako lidé."
Autonomní automobily budoucnosti
Takzvané autonomní automobily, které částečně myslí za řidiče, se neustále vyvíjejí. Umějí například zabránit srážce, ale to vše jen díky senzorům, nikoli díky "lidským vlastnostem", které by do stroje byly přeneseny. Na druhou stranu jsou roboti v nemocnicích a ve výrobě už poměrně rozšířenou věcí, která člověku pomáhá ve vývoji.
Umělá inteligence je tedy čím dál běžnější a obklopuje nás ve všech směrech. Jenomže je to dobře? Dnes už víme, že do strojů lze aplikovat některá morální pravidla a hodnoty. Nevíme ale, zda je správné, aby stroje cítily to, co lidé. Všichni známe romány a filmy, kde stroje lidské vlastnosti mají. Katastrofa nastává, když si uvědomí, že jsou vyspělejší než člověk.
foto: Shutterstock, zdroj: ScienceDaily.com