Բացառիկ. ԵՄ օրենսդիրների՝ ChatGPT-ն և գեներացնող AI-ն վերահսկելու կոչի հետևում – Նորություններ | Վերջին լուրեր | Վերջին նորություններ

ԼՈՆԴՈՆ/ՍՏՈԿՀՈԼՄ, 28 ապրիլի (Ռոյթերս) – Փետրվարին գեներատիվ արհեստական ​​ինտելեկտը կարևոր տեղ չի գրավել ԵՄ օրենսդիրների պլաններում՝ կարգավորելու գեներատիվ արհեստական ​​ինտելեկտի (AI) տեխնոլոգիաները, ինչպիսին է ChatGPT-ն:

Երկու տարի առաջ հրապարակված AI ակտի վերաբերյալ դաշինքի 108 էջանոց առաջարկը պարունակում էր «չաթբոտ» բառի միայն մեկ հիշատակում։ Արհեստական ​​ինտելեկտի ստեղծած բովանդակության հղումները հիմնականում վերաբերում էին խորը կեղծիքներին՝ պատկերներ կամ աուդիո, որոնք նախատեսված են մարդկանց նմանակելու համար:

Այնուամենայնիվ, ապրիլի կեսերին Եվրախորհրդարանի (ԵՊ) անդամները մրցում էին թարմացնելու այդ կանոնները՝ գրավելու գեներատիվ AI-ի նկատմամբ հետաքրքրության պայթյունը, որը վախ և անհանգստություն առաջացրեց այն բանից հետո, երբ OpenAI-ը ցուցադրեց ChatGPT-ը վեց ամիս առաջ:

Այդ բանավեճը գագաթնակետին հասավ հինգշաբթի նոր օրինագծով, որը սահմանում է հեղինակային իրավունքների պաշտպանությունը որպես AI-ի վերահսկողության տակ պահելու ջանքերի հիմնական մաս:

Չորս օրենսդիրների և բանավեճին մոտ երկու այլ աղբյուրների հետ հարցազրույցներն առաջին անգամ ցույց են տալիս, թե ինչպես ընդամենը 11 օրվա ընթացքում քաղաքական գործիչների այս փոքր խումբը մշակեց այն, ինչը կարող էր դառնալ ուղենիշային օրենսդրություն՝ վերափոխելով կարգավորող դաշտը OpenAI-ի և նրա մրցակիցների համար:

Օրինագիծը վերջնական չէ, և իրավաբաններն ասում են, որ դրա ուժի մեջ մտնելու համար, հավանաբար, տարիներ կպահանջվեն:

Նրանց աշխատանքի արագությունը նույնպես Բրյուսելում կոնսենսուսի հազվագյուտ օրինակ է, որը հաճախ քննադատվում է որոշումների կայացման դանդաղ տեմպերի համար:

ՎԵՐՋԻՆ ՊՐՈՊԻ ՓՈՓՈԽՈՒԹՅՈՒՆՆԵՐԸ

Նոյեմբերին գործարկվելուց ի վեր ChatGPT-ը դարձել է պատմության մեջ ամենաարագ զարգացող հավելվածը՝ խթանելով Big Tech մրցակիցների ակտիվությունը և ներդրումներ կատարել գեներատիվ AI ստարտափներում, ինչպիսիք են Anthropic-ը և Midjourney-ը:

Նման հավելվածների ժողովրդականությունը ստիպել է ԵՄ ոլորտի ղեկավար Թիերի Բրետոնին և մյուսներին կոչ անել կարգավորել ChatGPT-ի նման ծառայությունները:

Tesla Inc-ի (TSLA.O) և միլիարդատեր Twitter-ի գործադիր տնօրեն Իլոն Մասկի կողմից աջակցվող կազմակերպությունը մի քայլ առաջ է գնացել՝ նամակով նախազգուշացնելով արհեստական ​​ինտելեկտի հետևանքով առաջացած էկզիստենցիալ ռիսկի մասին և կոչ անելով խստացնել կանոնակարգերը:

Ապրիլի 17-ին օրինագծի մշակման մեջ ներգրավված տասնյակ եվրոպացի օրենսդիրներ ստորագրեցին բաց նամակ՝ համաձայնելով Մասկի նամակի որոշ հատվածների հետ և կոչ արեցին համաշխարհային առաջնորդներին գագաթնաժողով անցկացնել՝ զարգացած արհեստական ​​ինտելեկտի զարգացումը վերահսկելու ուղիներ գտնելու համար:

Նույն օրը նրանցից երկուսը՝ Դրագոս Թուդորաչեն և Բրանդո Բենիֆեյը, առաջարկել են փոփոխություններ, որոնք կստիպեն գեներացնող AI համակարգեր ունեցող ընկերություններին բացահայտել հեղինակային իրավունքով պաշտպանված նյութերը, որոնք օգտագործվում են իրենց մոդելների վերապատրաստման համար, ըստ չորս աղբյուրների, ովքեր մասնակցել են հանդիպումներին և խնդրել են անանուն մնալ: քննարկումների զգայունությանը։

Աղբյուրները նշում են, որ կոշտ նոր առաջարկը միջկուսակցական աջակցություն է ստացել:

Պահպանողական Եվրախորհրդարանի պատգամավոր Աքսել Վոսի առաջարկը՝ ստիպել ընկերություններին թույլտվություն փնտրել իրավատերերից՝ նախքան տվյալներն օգտագործելը, մերժվեց՝ որպես չափազանց սահմանափակող և կարող է խաթարել զարգացող արդյունաբերությունը:

Հաջորդ շաբաթ մանրամասները հրապարակելուց հետո ԵՄ-ն ներկայացրել է առաջարկված օրենքներ, որոնք կարող են թափանցիկության անհանգստացնող մակարդակ պարտադրել գաղտնի արդյունաբերության համար:

«Պետք է խոստովանեմ, որ ես զարմացա, թե որքան հեշտությամբ մենք մերձավորվեցինք այն մասին, թե ինչ պետք է լինի այս մոդելների տեքստում», – ուրբաթ օրը Reuters-ին ասել է Թուդորաչը:

«Դա ցույց է տալիս, որ կա ուժեղ կոնսենսուս և ընդհանուր ըմբռնում, թե ինչպես պետք է կանոնակարգվի այս պահին»:

Կոմիտեն համաձայնագրի շուրջ քվեարկության կդնի մայիսի 11-ին, իսկ հաջողության դեպքում կտեղափոխվի բանակցությունների հաջորդ փուլ՝ եռախոսություն, որտեղ ԵՄ անդամ երկրները բովանդակությունը կքննարկեն Եվրահանձնաժողովի և խորհրդարանի հետ։

«Մենք սպասում ենք, թե արդյոք գործարքը կկայանա մինչ այդ», – ասել է խնդրին ծանոթ աղբյուրը:

ՄԵԾ ԵՂԲԱՅՐԸ VS. ՏԵՐՄԻՆԱՏՈՐԸ

Մինչև վերջերս Եվրախորհրդարանի պատգամավորները դեռևս համոզված չէին, որ գեներատիվ արհեստական ​​ինտելեկտը հատուկ ուշադրության է արժանի:

Փետրվարին Թուդորաչը Reuters-ին ասաց, որ գեներատիվ AI «մանրամասն չի լուսաբանվի»: «Դա ևս մեկ քննարկում է, որը ես կարծում եմ, որ մենք կզբաղվենք այս տեքստում», – ասաց նա:

«Ես ավելի շատ վախենում եմ Մեծ եղբորից, քան տերմինատորից», – ասաց նա՝ նկատի ունենալով տվյալների անվտանգության ռիսկերը, որոնք կապված են մարդու նման բանականության մասին նախազգուշացման հետ:

Սակայն Թուդորաչը և նրա գործընկերներն այժմ համաձայն են, որ անհրաժեշտ են օրենքներ, որոնք հատուկ ուղղված են գեներատիվ արհեստական ​​ինտելեկտի կիրառմանը:

Նոր առաջարկների համաձայն, որոնք ուղղված են «հիմնական մոդելներին», այնպիսի ընկերություններ, ինչպիսին է Microsoft Corp (MSFT.O) կողմից աջակցվող OpenAI-ը, պետք է բացահայտեն հեղինակային իրավունքով պաշտպանված ցանկացած նյութ՝ գրքեր, լուսանկարներ, տեսանյութեր և այլն, որոնք օգտագործվում են իրենց համակարգերը վերապատրաստելու համար:

Հեղինակային իրավունքի խախտման մասին պնդումները ստիպել են AI ընկերություններին դատի տալ Stable Diffusion-ին վերջին ամիսներին՝ հեղինակային իրավունքով պաշտպանված լուսանկարներն օգտագործելու համար՝ իրենց համակարգերը Getty Images-ով մարզելու համար: OpenAI-ը նաև բախվել է քննադատության՝ իր ծրագրաշարը մշակելու համար օգտագործվող տվյալների հավաքածուի մանրամասները կիսելուց հրաժարվելու համար:

«Խորհրդարանի դրսից և ներսից կոչեր են հնչել՝ արգելել ChatGPT-ն կամ այն ​​որակել որպես բարձր ռիսկային», – ասել է Եվրախորհրդարանի պատգամավոր Սվենյա Հանը։ «Վերջնական փոխզիջումը համատեղելի է նորարարության հետ, քանի որ այն չի դասակարգում այս մոդելները որպես «բարձր ռիսկային», այլ սահմանում է թափանցիկության և որակի պահանջներ»:

Զեկուցում Մարտին Քուլթերի կողմից Լոնդոնում և Սուպանթա Մուխուրջիի կողմից Ստոկհոլմում; Խմբագրվել է Ժոզեֆին Մեյսոնի, Քենեթ Լիի և Մեթյու Լյուիսի կողմից

Մեր չափանիշները. Thomson Reuters Trust Principles:

2023-04-29 01:01:54
Աղբյուրը – Reuters

Թարգմանություն“24 ԺԱՄ”



Վերջին նորություններ

Bənzər məqalələr

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button