Մեկ տարի առաջ Google-ն առաջարկել էր Լորա Նոլանին աշխատել ԱՄՆ բանակի համար նախագծի՝ արհեստական ինտելեկտի կողմից կառավարվող ռազմական դրոնների տեխնոլոգիայի վրա։ Իր վճռական բողոքը ծրագրավորողն արտահայտել էր ընկերությունից հեռանալով։ Նրա կարծիքով, սպառազինություն ունեցող եւ մարդու կողմից չկառավարվող ռոբոտները պետք է օրենքից դուրս հայտարարվեն այն նույն պատճառով, որով արգելված է քիմիական զենքը՝ նրանք սպանում են առանց տարբերակելու, հայտնում է HighTech+-ը։

Guardian-ը գրում է, որ Google-ը Դուբլինի Թրինիթի քոլեջի շրջանավարտ Նոլանին 2017թ․ հրավիրել էր մասնակցել Maven նախագծին։ Մինչ այդ Նոլանը չորս տարի աշխատել էր ընկերությունում եւ դարձել էր Իռլանդիայի առաջատար ծրագրային ինժեներներից մեկը։ Սակայն նա լրջորեն կասկածում էր ԱՄՆ ՊՆ նախագծի էթիկական կողմի վրա։ Նախագծի խնդիրն այն էր, որպեսզի արագացնի դրոնների համար պատկերների ճանաչումը։

Ընկերությունը ստիպված էր այս տարվա մարտին դադարեցնել Maven նախագծի իրականացումը այն բանից հետո, երբ 3000 աշխատակիցներ միջնորդություն էին ստորագրել նման նախագծերում Google-ի մասնակցության դեմ։

Ի տարբերություն, հեռակառավարվող ԱԹՍ-երի, ռոբոտ-մարդասպանները տեսականորեն ունակ են այնպիսի բաներ անել, որի համար նրանք նախապես ծրագրավորված են, վստահ է Նոլանը։

Նա միացել է ռոբոտ-մարդասպաններին արգելող քարոզարշավին եւ Նյու Յորքում ու Ժնեւում ՄԱԿ-ի դիվանագետներին տեղեկացրել է ինքնավար սպառազինության վտանգների մասին։

Ռոբոտներին կարող են շփոթեցնել եղանակային պայմանները, որոնք հաշվի առնված չեն դրանց ծրագրավորման ժամանակ, կամ ալգորիթմները կարող են սխալ մեկնաբանել զինված մարդկանց խմբի մտադրությունները՝ խաղաղ որսորդներին զինյալների տեղ դնելով։

Նոլանին նաեւ վախեցնում է այն, որ ինքնավար ռազմական ռոբոտների փորձարկումը հնարավոր է միայն իրական պայմաններում։