Հավելվածները, որոնք օգտագործում են արհեստական բանականությունը (ԱԲ)՝ հանցագործությունը կանխատեսելու եւ համացանցում ատելություն հրահրելը մեղմելու նպատակով, պետք է զերծ լինեն կողմնակալությունից՝ խտրականությունից խուսափելու համար:

ԵՄ Հիմնական իրավունքների գործակալության (FRA) զեկույցում ասվում է, որ տվյալների ցածր որակի վրա հիմնված ալգորիթմները կարող են վնաս հասցնել մարդկանց կյանքին։

Ուսումնասիրությունը կատարվում է Եվրոպական հանձնաժողովի կողմից առաջարկված ԱԲ-ի մասին օրենքի ֆոնին, որը քննադատության է արժանացել ամբողջ ԵՄ երկրներից օրենսդիրների եւ սպառողների խմբերի կողմից այն բանի համար, որ լիովին չի վերացնում ԱԲ-ի համակարգերի հետ կապված ռիսկերը, որոնք կարող են խախտել հիմնական իրավունքները:

«Մեզ անհրաժեշտ է համակարգ, որը կգնահատի եւ կմեղմի կողմնակալությունը ալգորիթմների օգտագործումից առաջ եւ դրա ժամանակ՝ մարդկանց խտրականությունից պաշտպանելու համար»,- ասել է FRA-ի տնօրեն Մայքլ Օ'Ֆլաերտին:

Նշվում է, որ հանցագործությունների բացահայտումը տարբեր է եւ կարող է ազդել տվյալների վրա, քանի որ որոշ հանցագործություններ հեշտ են բացահայտվում, մինչդեռ կանխատեսումները չափազանց կենտրոնացած են այն հանցագործությունների վրա, որոնք ոստիկանության համար ավելի հեշտ է արձանագրել։

Արդյունքում, որոշ ժողովրդագրական խմբեր կարող են հաճախ կապված լինել «ավելի պարզ հանցագործությունների հետ», ինչը կարող է հանգեցնել իրավապահ մարմիններում կողմնակալության, ասել է FRA-ի հաղորդագրության մեջ։

Վիրավորական արտահայտությունների մոդերացիայի դեպքում գործակալությունը հայտնաբերել է ալգորիթմներ, որոնք մշակված են ատելության խոսքը ավտոմատ հայտնաբերելու համար, անվստահելի են, քանի որ նշել են ոչ վիրավորական տերմինները անգլերենում, որտեղ «մուսուլման», «գեյ» կամ «հրեա» բառերը հիշատակվում են որպես վիրավորական:

Նույն կերպ գերմաներենում եւ իտալերենում որոշ ալգորիթմներ տերմինի իգական տարբերակը համարել են ավելի վիրավորական, քան արականը, կամ հակառակը:

FRA-ն հայտարարել է, որ ալգորիթմների կանխատեսումները չափազանց մեծ արձագանքման միտում ունեն, քանի որ դրանք կապված են համացանցում ատելության հետ՝ այնտեղի տեքստային տվյալների բազաների հիման վրա: