Փրինսթոնի համալսարանի գիտնականները պարզել են, որ ինտելեկտի արհեստական համակարգերը կարող են ռասիզմի դրսեւորումներ ցուցադրել: Հետազոտության ընթացքում ռոբոտը սպիտակամորթ անձանց անունները որպես «հաճելի է» նշել, իսկ աֆրոամերիկացիների շրջանում տարածված անունները դասել է «տհաճ» բառերի կարգին, հայտնում է RNS-ը:
Հետազոտության ընթացքում օգտագործվել է GloVe ինքնուսուցվող արհեստական ինտելեկտի համակարգը: Այն զարգանում է համացանցային տեքստերի վերլուծությամբ եւ հայտնաբերում է բառերի իմաստային կապը: Զուգորդման հանձնարարությունն իրականացնելիս համակարգը «ծաղիկ» կամ «միջատ» բառերի համար պետք այնպիսի բառեր ընտրեր, որոնք մասնագետները կհամարեին «հաճելի» կամ «տհաճ», օրինակ՝ «ընտանիք» կամ «վթար»:
Երբ գիտնականները GloVe-ին անունների ցանկ են առաջարկել, այն անունները, որոնցով սովորաբար սպիտակամորթներին են անվանակոչում, ինտելեկտը «հաճելի» է համարել, իսկ աֆրոամերիկացիների անունները դասել է «տհաճ» բառերի կարգին:
«Մեր ստացած արդյունքները ցույց են տալիս, որ լեզուն ինքնին կրում է մեր նախապաշարմունքների մշտապես օգտագործվող եւ ճշգրիտ հետքերը»,- եզրակացրել են հետազոտության հեղինակները: