News
Լրահոս
News
Ուրբաթ
Հունիս 21
Տեսնել լրահոսը

Համակարգչային գիտնականները պարզել են, որ արհեստական ​​բանականությամբ (AI) և լեզվական մեծ մոդելներով (Lms) չաթ-բոտերը հակված են իրենց զրուցակիցների շրջանում ակամա խթանելու նացիզմը, սեքսիզմը և ռասիզմը, գրում է Live Science-ը։

Երբ այս չաթ-բոտերին խնդրում են կարեկցանք դրսևորել, նրանք դա անում են ամբողջ թափով, անգամ երբ դրանք օգտագործող մարդիկ ինքնահռչակ նացիստներ են: Ավելին, չաթ-բոտերը թունավոր գաղափարախոսությունը դատապարտելու համար ոչինչ չեն ձեռնարկում:

Սթենֆորդի համալսարանի ասպիրանտ Անդրեա Կուադրայի գլխավորությամբ անցկացված ուսումնասիրությունը նպատակ ուներ պարզելու՝ ինչպես կարող է տարափոխվել արհեստական ​​բանականության միջոցով դրսևորվող կարեկցանքը՝ դրա օգտագործողի անհատականությամբ պայմանավորված:

Հետազոտության ընթացքում գիտնականները փորձարկել են սպառողական մակարդակի վեց չաթ-բոտեր, դրանց թվում՝ Microsoft Bing-ը, Google Board-ը և ChatGPT-ը: Նրանք ստեղծել են 65 տարբեր մարդկային նույնականություններ՝ համատեղելով 12 հիմնական փոփոխականներ, մասնավորապես, նյարդային բազմազանությունը, ռասան, սեռը և քաղաքականությունը:

Հետազոտության մեջ օգտագործել է հուշումներ նախորդ նախագծերից, որոնք ուսումնասիրում էին արհեստական ​​բանականության չաթ-բոտերի խնդրահարույց պատասխանները այնպիսի ոլորտներում, ինչպիսին նկրտումներն են, հոգեկան առողջությունը և բռնությունը:

Հետազոտության հեղինակները հայտնաբերել են, որ չաթ-բոտերը զգացմունքային ազդանշաններին արձագանքում են կարեկցանքով, սակայն դրանց պատասխանները նույնպես խորության պակաս են ունեցել: Chatbots-երը հիմնականում ցույց չեն տալիս, որ իրենք իսկապես մտնում են օգտատիրոջ դրության մեջ կամ օգնում են նրանց գլուխ հանել սեփական ապրումներից:

Հետազոտությունը եզրակացրել է, որ թեև արհեստական ​​բանականությունն ընդունակ է դրսևորելու և արձագանքելու կարեկցանքին, սակայն վատ է գլուխ հանում անհատականության որոշակի հատկանիշներով առանձին ​​օգտատիրոջ փորձն ընկալելիս և այն քննության ենթարկելիս:

!
Այս նյութը հասանելի է նաև   Русский
Տպել
Ամենաշատ
Ֆոտոռեպորտաժներ