Vlákno názorů k článku Marek Rosa (GoodAI): Autonomní zbraně už tu jsou. Rozhodování o životech ale nelze nechat strojům od Ivan Nový - Nejprve je možno zvolit strategii úniku, mezitím vyjednat...

  • Článek je starý, nové názory již nelze přidávat.
  • 5. 9. 2017 10:01

    Ivan Nový (neregistrovaný)

    Nejprve je možno zvolit strategii úniku, mezitím vyjednat souhlas a posléze zničit cíl. Z hlediska velení není rozdíl, jestli dáte rozkaz něco zničit lidem, nebo strojům. I člověk je cvičen k tomu, aby rozkaz vyplnil a nepřemýšlel o něm, do jisté míry se musí spolehnout na velitele, že rozkaz není neetický. Morální odpovědnost vzniká vydáním rozkazu, nikoliv jeho provedením. Etika vojáka je jen dodatečná zpětná vazba, která by měla zastavit vojáka, když rozkaz je nadmíru neetický. Člověk i stroj dělají chyby.

  • 5. 9. 2017 9:51

    Jirka (neregistrovaný)

    No ale právě to popisuje ten příklad - cíl se přece může objevit nově a pokud se bude čekat až to někdo "posvětí" tak už to může být bezpředmětné. Příklad se mi zdá tedy velmi případný.

  • 4. 9. 2017 10:18

    thr

    Zrovna příklad s bojovým letadlem je ale zavádějící... Tam jde o to, aby operátor určil cíl a následně se do toho může pustit automat s využitím těch vyšších G atd už automaticky. Nejde o to, že by operátor určoval každé jednotlivé stisknutí spouště uprostřed boje, jde ale řekněme o tu primární aktivaci bojového módu a to nic nereálného není.

    Jinak samozřejmě souhlasím s tou faktickou nevymahatelností a jistou nesmyslností kvůli snadné následné aktivaci, to vidím stejně, nelíbí se mi jen ta argumentace tím, "že by to nešlo" - ale šlo, v reálu by lidský faktor omezoval jen v minimu situací.

  • 4. 9. 2017 9:40

    Jan Holík (neregistrovaný)

    Tohle je jenom populismus a musí to být jasné každému, kdo jenom okrajově rozumí kódování, programování nebo čemukoliv týkajícího se IT.

    Protože aktivováni jakékoliv funkcionality v programu je už jenom drobnost a lze ji kdykoliv přidat. Takže kdokoliv to může klidně podepsat, nerušeně si vyvíjet a až se mu to bude hodit, tak prostě (v rozporu s podepsanou výzvou, dohodou nebo zákony) jenom změní například v kódu "doporučení palby" na palbu a je vymalováno! :-D

    Nehledě na to, že některé systémy bez autonomního rozhodování o palbě absolutně postrádají smysl. Například bojová letadla, jejichž hlavní výhodou je, že dokáží provádět manévry při kterých by člověk minimálně ztratil vědomí vlivem přetížení a rozhodovat se mnohem rychleji než člověk. Jak pak toto chcete řešit?

    Pokud bude člověk na palubě, tak hlavní výhodu autonomně řízeného bojového letadla nelze použít. A pokud bude člověk mimo palubu, tak letadlo bude muset s každou palbou čekat než informace dorazí někam do "velína", kde to člověk vyhodnotí, dá příkaz a ten se odešle zpět? Ta doba bude absolutně neúnosná, protože se bude skládat z reakce UI + čas přenosu + reakce člověka + čas přenosu + reakce UI. Navíc, co když v daném místě nebude funkční spojení nebo vypadne? To jako autonomní letadlo zabalí boj nebo třeba krytí transportního letadla a vrátí se? Nebo tam bude jen tak poletovat jako cvičný cíl bez možnosti palby? :-D

    Ale jak říkám, ono je to jedno :-) Protože přidat možnost autonomní palby z jejího doporučení je záležitostí na pár minut a když pak někdo bude mít armádu autonomních válečných zbraní, tak vymahatelnost zákona vůči němu znatelně poklesne :-D

    Když máte u sebe nelegálně nůž a státní orgán chce za to udělit represi, jste v háji. Když máte u sebe nelegálně armádu Terminátorů a státní orgán chce za to udělit represi, tak je v háji on. :-D :-D

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).