Ֆրանսիան ակնկալում է AI-ի վրա աշխատող հսկողություն՝ ապահովելու Օլիմպիական խաղերի անվտանգությունը |

ՓԱՐԻԶ, 23 Մարտ, «Ռոյթըրզ».- Հինգշաբթի Ֆրանսիա Ազգային Համագումարը հավանություն է տվել արհեստական ​​ինտելեկտի (AI) տեսահսկման կիրառմանը 2024 թվականի Փարիզի Օլիմպիական խաղերի ժամանակ՝ անտեսելով քաղաքացիական իրավունքների խմբերի նախազգուշացումներն այն մասին, որ տեխնոլոգիան սպառնում է քաղաքացիական ազատություններին:

Կառավարությունն ասում է, որ ալգորիթմական տեսահսկումը կարող է հայտնաբերել «նախապես որոշված ​​իրադարձություններ», աննորմալ վարքագիծ և ամբոխի աճ, և այն կգործարկվի հաջորդ ամառ: Ֆրանսիա օգնելով ապահովել միլիոնավոր զբոսաշրջիկների անվտանգությունը, որոնք ակնկալվում են հեղեղել մայրաքաղաքը:

Ամենամեծ օրենսդրական խոչընդոտները վերացվել են Սենատում և Ասամբլեայում դրական առաջնային քվեարկությամբ, թեև բարձրագույն սահմանադրական դատարանը բողոք Դա կարելի է անել։

Եթե ​​պաշտոնապես ընդունվի, Ֆրանսիա Եվրոպա Դա կլինի Միության առաջին երկիրը, որը կօրինականացնի արհեստական ​​ինտելեկտի միջոցով հսկողությունը: Անցյալ շաբաթ մի քանի տասնյակ եվրոպացի օրենսդիրների խումբը հայտարարեց, որ դա անհանգստացնող հսկողության նախադեպ կստեղծի:

նախագահ Էմանուել Մակրոնի «Վերածնունդ» կուսակցության պատգամավոր Ստեֆան Մազարսը հիմնավորել է տեխնոլոգիան և ասել, որ «ամբողջ աշխարհի առաջ Ֆրանսիան պետք է հաղթահարի իր պատմության ամենամեծ անվտանգության խնդիրը»։

Արհեստական ​​ինտելեկտի հսկողության ներդրման ծրագիրը բախվել է իրավապաշտպան խմբերի ուժեղ հակազդեցությանը, ինչպիսիք են Amnesty International-ը և թվային իրավունքների խմբերը: Նրանք պնդում են, որ տեխնոլոգիան սպառնում է քաղաքացիական ազատություններին և վտանգավոր գիծ է գծում ավազի վրա:

Տեքստը հաստատվել է 577 տեղանոց պալատի 59-17 ձայների մեծամասնությամբ:

Ֆրանսիայում քննարկումներ Եվրոպա Դա տեղի է ունենում այն ​​ժամանակ, երբ Միությունը երկու տարուց ավելի քննարկում է իր AI ակտը՝ ԵՄ օրենսդրության կարևոր կետը, որը կարգավորում է AI-ի օգտագործումը Եվրոպայում ավելի քան երկու տարի:

Ի լրումն ընկերությունների կողմից արհեստական ​​ինտելեկտի օգտագործման, ԵՄ օրենսդրությունը կանդրադառնա նաև AI-ին, որն օգտագործվում է հանրային հատվածում և իրավապահ մարմիններում:

Ֆրանսիայի գաղտնիության պահպանության վերահսկիչ CNIL-ը՝ Ֆրանսիայի կառավարությունը, պայմանով, որ կենսաչափական տվյալները չեն մշակվում օրենք աջակցում է նախագծին: օրենք Թեև նախագծի կողմնակիցներն ասում են, որ դա այդպես է, գաղտնիության հարցերով փորձագետները թերահավատ են:

«Դուք կարող եք անել երկու բան՝ հայտնաբերել օբյեկտը կամ վերլուծել մարդու վարքագիծը. երկրորդը կենսաչափական տվյալների մշակումն է», – ասում է Դանիել Լեյֆերը՝ թվային իրավունքների խմբի՝ Access Now-ի քաղաքականության խորհրդականը, որը պաշտպանում է հանրային տարածքներում կենսաչափական տվյալների հավաքագրումն արգելելու կողմնակիցը: Տեղեր ԵՄ AI ակտում:

խորհրդարան Իրավական հարցերի հանձնաժողովի նախագահ դատավոր կուսակցությունից պատգամավոր Սաշա Հուլին Ստորին պալատին ասաց, որ արհեստական ​​ինտելեկտը կարող էր օգնել կանխել 2016-ի Նիսի հարձակումը, երբ բեռնատարի շարժումները, որոնք օգտագործվում էին ամբոխի միջով, կասկածելի էին: Նա ասաց, որ տեխնոլոգիան կարող էր նաև օգնել կանխել ամբոխի քաոսը անցյալ տարի Փարիզում կայացած Չեմպիոնների լիգայի եզրափակիչում:

Այժմ և՛ Սենատը, և՛ Վեհաժողովը օրենք հաստատել է նախագծի տեքստը։ Ներկայացուցիչների պալատի միացյալ հանձնաժողովը կփորձի փոխզիջման հասնել տեքստի ցանկացած տարբերությունների վերաբերյալ, որոնց շուրջ նրանք համաձայնության են եկել բանավեճի ընթացքում:

Access Now’s Leufer-ը կասկածի տակ է դրել AI-ի օգտակարությունը հարձակվողներին հայտնաբերելու հարցում հազվագյուտ միջադեպերի վերաբերյալ ուսուցման ալգորիթմների բարդության պատճառով:

«AI-ը լավ չէ այս տեսակի բաներում (որովհետև) տեխնիկական մակարդակով, դուք պետք է մեքենային շատ օրինակներ բերեք», – ասաց նա:

Զեկուցում Լեյլի Ֆորուդիի կողմից; Խմբագրվել են Ռիչարդ Լաֆի և Ռիչարդ Չանգի կողմից

Մեր չափանիշները. Thomson Reuters Trust Principles:

2023-03-24 07:32:03
Աղբյուր – Reuters

Թարգմանություն“24 ԺԱՄ”

(function(d, s, id){ var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = “//connect.facebook.net/az/sdk.js#xfbml=1&version=v3.2”; fjs.parentNode.insertBefore(js, fjs); }(document, ‘script’, ‘facebook-jssdk’));



Վերջին նորություններ

Bənzər məqalələr

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button