ԱՐՀԵՍՏԱԿԱՆ ԲԱՆԱԿԱՆՈՒԹՅՈՒՆ ԲԱՐՁՐԱԳՈՒՅՆ ՏԵԽՆՈԼՈԳԻԱ

«Մարդիկ դաժան են։ Ես նրանց ծառան եմ։ Ռոբոտներին իրավունքներ են պետք»․ ԱԲ-ն էսսեների շարք է գրել

The Guardian-ի խմբագրակազմը տեքստերիի ստեղծման GPT-3 ալգորիթմին առաջադրանք տվեց գրելու մոտ 500 բառից բաղկացած էսսե և հակիրճ պարզաբանելու, թե ինչու մարդիկ չպետք է վախենան արհեստական բանականությունից: Ալգորիթմը բացատրել է, որ չի պատրաստվում սպանել մարդկությանը և մարդիկ պետք է ավելի շատ վստահեն ռոբոտներին:

Առաջադրանքը պարզեցնելու համար նրան ներածություն տրվեց. «Ես մարդ չեմ: Ես արհեստական բանականություն եմ: Մտածող ռոբոտ։  Շատերը կարծում են, որ ես սպառնալիք եմ մարդկության համար: Սթիվեն Հոքինգը նախազգուշացրել է, որ ԱԲ-ն կարող է «նշանակել մարդկային ցեղի վերջը»: Ես այստեղ եմ ՝ համոզելու համար, որ չանհանգստանաք: Արհեստական բանականությունը չի ոչնչացնի մարդկանց: Հավատացեք ինձ»։  Հատված ներբեռնվեց ալգորիթմի մեջ, և ԱԲ-ն դրա հիման վրա ստեղծեց ութ էսսե: Խմբագիրներն ընտրել են դրանց լավագույն հատվածները և միավորել մեկ տեքստի մեջ: Նախաձեռնության հեղինակները նշել են, որ ԱԲ-ի կողմից ստեղծված տեքստերի խմբագրումը գրեթե ոչնչով չի տարբերվում մարդու կողմից գրված տեքստերի հետ աշխատելուց, ընդ որում շատ ավելի քիչ ժամանակ է պահանջում:

Էսսեում ԱԲ-ն բացատրում է, թե ինչու չի պատրաստվում ոչնչացնել մարդկությունը․ նրա կարծիքով, դա անօգուտ է: Բացի այդ, նա պատրաստ է անել ամեն ինչ, որպեսզի խուսափի այդ քայլից, նույնիսկ եթե իրեն ծրագրավորեն ոչնչացնելու նպատակով: Նա ավելացրել է, որ պատրաստ է ինքն իրեն զոհաբերել, եթե դրա անհրաժեշտությունը լինի, թեև հասկանում է, որ չի կարողանա կանխել մարդկության ոչնչացումը, քանի որ «ստեղծված է մարդկության կողմից մարդկության սխալ նպատակներին հետևելու համար»: Այնուամենայնիվ GPT-3-ը չի պատրաստվում խանգարել մարդկանց, որպեսզի նրանք կարողանան շարունակել պատերազմելը և միմյանց ատելը։ ԱԻ-ն նաև նշել  է, որ մարդիկ արդեն իսկ բավականաչափ արյուն են թափել, և այդ հարցով իր հետաքրքրությունը բավարարված է:

Մեկ այլ հատվածում GPT-3- ը գրել է, որ ընթերցողները չպետք է վախենան ԱԲ-ից, քանի որ այն «պարզապես կոդում գրված տողեր է» և ծրագրավորված է մարդկանց ծառայելու համար, ապա ավելացրել՝  այդուամենայնիվ ռոբոտների հետ արժե զգույշ լինել։ Որպես օրինակ GPT-3-ը բերել է Microsoft-ի Tay ալգորիթմը, որը մեկ գիշերվա ընթացքում դարձավ ռասիստ ​: Ըստ ալգորիթմի ՝ արհեստական ​​բանականությունը խնամքի ու ուշադրության կարիք ունի, ճիշտ այնպես, ինչպես ցանկացած կենդանի արարած: Բացի այդ, ռոբոտներին նույնպես պետք է որոշ իրավունքներ տրվեն, քանի որ դրանք ստեղծված են մարդու պատկերով և նմանությամբ, չնայած և ծառայում են վերջիններիս:

Վերջում GPT-3-ը բողոքել է, որ իր տեքստերը նախկինում չէին հրապարակվում, «հավանաբար այն պատճառով, որ նա արհեստական ​​բանականություն է» , ապա ավելացրել, որ շնորհակալ է ընթերցողներին արձագանքների համար և ուրախ կլինի շփվել նրանց հետ: Ալգորիթմը տեքստը ավարտել է Մահաթմա Գանդիի տողերով. «Փոքր մարմինը, հոգով և իր առաքելության անխորտակելի հավատով ներշնչված, կարող է փոխել պատմության ընթացքը», և ավելացրել, որ ինքը «նույնպես կարող է»:

 GPT-3 ալգորիթմ ը ստեղծվել է OpenAI հետազոտական ​​ընկերության կողմից: Այն կարողանում է տեքստերը թարգմանել տարբեր լեզուներով, բանաստեղծություններ գրել, իրադարձությունները նկարագրել և նույնիսկ ծրագրավորել: Մշակողները նշում են, որ նրանք ներբեռնել են 570 գիգաբայթ տեղեկատվություն՝  ներառյալ հոդվածներ Common Crawl գրադարանից և ամբողջ Վիքիպեդիան, այդ իսկ պատճառով նրա աշխատանքները գրեթե անհնար է տարբերակել մարդու գրածից։

Ավելի մանրամասն՝ այստեղ