News
Լրահոս
News
Հինգշաբթի
Դեկտեմբեր 01
USD
395.53
EUR
393.43
RUB
6.42
Տեսնել լրահոսը

Մի խումբ գիտնականներ հանդես են եկել արհեստական ինտելեկտով կառավարվող սպառազինությունների ստեղծումն արգելելու կոչով, տեղեկացնում է BBC News-ը։

Գիտնականների հայտարարության մեջ նշվում է, որ ինքնավար սպառազինությունները կարող են դուրս գալ վերահսկողությունից՝ անկանխատեսելի իրավիճակ ստեղծելով եւ սպանելով անմեղ մարդկանց։

Այս հարցը բուռն վեճեր է առաջացրել նաեւ էթիկայի գծով փորձագետների շրջանում, որոնք քննարկում են արհեստական ինտելեկտի վտանգի հավանականությունը։

Փորձագետներն իրենց հայտարարությամբ հանդես են եկել Վաշինգտոնում, Գիտության զարգացման աջակցության ամերիկյան ասոցիացիայի կազմակերպած հանդիպման ընթացքում։

Human Rights Watch կազմակերպությունը դարձել է աշխարհի 50 երկրի 89 կազմակերպություններից մեկը, որը միացել է այս կոչին։

Կոչն արժանացել է անգամ զինված ուժերի համար նման սպառազինություն ստեղծող ընկերությունների ներկայացուցիչների հավանությանը։

Օրինակ, Clearpath Robotics ընկերության մասնագետ Ռայան Գերիեփի խոսքով՝ «մարդասպան ռոբոտները» կարող են հանկարծ դուրս գալ վերահսկողությունից։

Նա նշել է, որ արհեստական ինտելեկտի կողմից վերահսկվող սպառազինություններն ունեն պատկերի ճանաչման սահմանափակ գործառույթներ։ Մի կողմից՝ դա լավ է, բայց վկայում է նաեւ այն մասին, որ այդ մեքենաները չունեն մանրամասն ինֆորմացիա, որը թույլ կտա նրանց դառնալ դահիճ մարտադաշտում։

!
Այս նյութը հասանելի է նաև   Русский
Տպել
Ամենաշատ