Արդյո՞ք արհեստական ​​բանականությունը չափազանց հեռու է գնացել։

Արդյո՞ք արհեստական ​​բանականությունը չափազանց հեռու է գնացել։

Կարճ պատասխան. Արհեստական ​​բանականությունը չափազանց հեռու է գնացել, երբ այն կիրառվում է բարձր ռիսկային որոշումների, հսկողության կամ համոզման համար՝ առանց հստակ սահմանափակումների, տեղեկացված համաձայնության և բողոքարկման իրական իրավունքի: Այն կրկին անցնում է սահմանը, երբ խորը կեղծիքները և մասշտաբային խաբեությունները վստահությունը դարձնում են ռիսկի պես: Եթե մարդիկ չեն կարողանում ասել, որ արհեստական ​​բանականությունը դեր է խաղացել, չեն կարողանում հասկանալ, թե ինչու է որոշումն այդպես կայացվել, կամ չեն կարողանում հրաժարվել դրանից, ապա դա արդեն չափազանց հեռու է:

Հիմնական եզրակացություններ՝

Սահմաններ. Սահմանեք, թե ինչ չի կարող անել համակարգը, հատկապես, երբ անորոշությունը բարձր է։

Հաշվետվողականություն. Համոզվեք, որ մարդիկ կարող են չեղարկել արդյունքները առանց տուգանքների կամ ժամանակի սղության։

Թափանցիկություն. պատմեք մարդկանց, երբ է արհեստական ​​բանականությունը ներգրավված և ինչու է այն կայացրել իր որոշումները։

Մրցակցայինություն. ապահովեք արագ, գործնական բողոքարկման ուղիներ և հստակ եղանակներ՝ սխալ տվյալները շտկելու համար։

Չարաշահման դիմադրություն. ավելացրեք ծագման, գնի սահմանափակումներ և վերահսկիչ միջոցներ՝ խարդախություններն ու չարաշահումները կանխելու համար։

«Արհեստական ​​բանականությունը չափն անցե՞լ է»։

Հատկանշականն այն է, որ սահմանների հատումը միշտ չէ, որ ակնհայտ է։ Երբեմն դա աղմկոտ է և շողշողուն, ինչպես խորը կեղծիքի նման մի բան։ ( FTC , FBI ): Մյուս անգամները՝ լուռ՝ ավտոմատացված որոշում, որը առանց որևէ բացատրության շեղում է ձեր կյանքը, և դուք նույնիսկ չեք գիտակցում, որ ձեզ «գնահատել են»։ ( UK ICO , GDPR հոդված 22 ):

Այսպիսով… Արդյո՞ք արհեստական ​​բանականությունը չափն անցե՞լ է։ Որոշ տեղերում՝ այո։ Այլ տեղերում այն ​​բավականաչափ հեռու չի գնացել, քանի որ այն օգտագործվում է առանց ոչ գրավիչ, բայց անհրաժեշտ անվտանգության ռելսերի, որոնք գործիքներին ստիպում են գործել որպես գործիքներ՝ ռուլետկայի փոխարեն՝ հարմար ինտերֆեյսով։ 🎰🙂 ( NIST AI RMF 1.0 , ԵՄ արհեստական ​​բանականության մասին օրենք )

Հոդվածներ, որոնք կարող են ձեզ դուր գալ կարդալ սրանից հետո

🔗 Ինչու՞ արհեստական ​​բանականությունը կարող է վնասակար լինել հասարակության համար
Հիմնական սոցիալական ռիսկերը՝ կողմնակալություն, աշխատատեղեր, անձնական կյանք և իշխանության կենտրոնացում։.

🔗 Արհեստական ​​բանականությունը վնասակար է շրջակա միջավայրի համար։ Թաքնված ազդեցություններ
Ինչպես են վերապատրաստումները, տվյալների կենտրոնները և էներգիայի օգտագործումը բարձրացնում արտանետումները։.

🔗 Արհեստական ​​բանականությունը լավն է, թե վատը։ Առավելություններն ու թերությունները
Առավելությունների, ռիսկերի և իրական աշխարհի փոխզիջումների հավասարակշռված ակնարկ։.

🔗 Ինչու է արհեստական ​​բանականությունը համարվում վատ. մութ կողմը
Ուսումնասիրում է չարաշահումը, մանիպուլյացիաները, անվտանգության սպառնալիքները և էթիկական մտահոգությունները։.


Ի՞նչ են նկատի ունենում մարդիկ, երբ ասում են՝ «Արհեստական ​​բանականությունը չափն անցե՞լ է»։ 😬

Մարդկանց մեծ մասը չի հարցնում, թե արդյոք արհեստական ​​բանականությունը «գիտակից» է, թե «իշխանությունը ստանձնում է»։ Նրանք մատնացույց են անում հետևյալներից մեկը՝

  • Արհեստական ​​բանականությունն օգտագործվում է այնտեղ, որտեղ չպետք է օգտագործվի (հատկապես՝ բարձր ռիսկային որոշումներ): ( ԵՄ Արհեստական ​​բանականության մասին օրենքի III հավելված , GDPR հոդված 22 ):

  • Արհեստական ​​բանականությունն օգտագործվում է առանց համաձայնության։ (Ձեր տվյալները, ձեր ձայնը, ձեր դեմքը… անակնկալ է։) ( Մեծ Բրիտանիայի ICO , GDPR հոդված 5 )

  • Արհեստական ​​բանականությունը չափազանց հմուտ է դառնում ուշադրության մանիպուլյացիայի մեջ։ (Հոսքեր + անհատականացում + ավտոմատացում = կպչունություն։) ( OECD AI սկզբունքներ )

  • Արհեստական ​​բանականությունը ճշմարտությունը դարձնում է ընտրովի (Deepfakes, կեղծ ակնարկներ, սինթետիկ «փորձագետներ»): ( Եվրոպական հանձնաժողով , FTC , C2PA )

  • Արհեստական ​​բանականությունը կենտրոնացնում է ուժը։ (Մի քանի համակարգեր, որոնք ձևավորում են այն, ինչ բոլորը տեսնում և կարող են անել): ( Մեծ Բրիտանիայի CMA )

«Արհեստական ​​բանականությունը չափն անցե՞լ է» հարցի էությունը ։ Սա մեկ պահ չէ։ Սա խթանների, կարճ ճանապարհների և «հետո կշտկենք» մտածողության կույտ է, որը, եկեք անկեղծ լինենք, հակված է թարգմանվել որպես «մենք կշտկենք այն, երբ ինչ-որ մեկը վնասվածք ստանա» 😑

Արդյո՞ք արհեստական ​​բանականությունը չափազանց հեռու է գնացել ինֆոգրաֆիկայի միջոցով

Ոչ այնքան գաղտնի ճշմարտությունը. արհեստական ​​բանականությունը բազմապատկիչ է, այլ ոչ թե բարոյական գործոն 🔧✨

Արհեստական ​​բանականությունը չի արթնանում և որոշում վնասակար լինել։ Մարդիկ և կազմակերպությունները թիրախավորում են այն։ Բայց այն բազմապատկում է այն ամենը, ինչ դուք նրան կերակրում եք։

  • Օգտակար մտադրությունը դառնում է անչափ օգտակար (թարգմանություն, մատչելիություն, ամփոփում, բժշկական օրինաչափությունների հայտնաբերում):

  • Անփույթ մտադրությունը դառնում է զանգվածաբար անփույթ (մասշտաբի կողմնակալություն, սխալների ավտոմատացում):

  • Վատ մտադրությունը վերածվում է խիստ վատ բանի (խարդախություն, ոտնձգություն, քարոզչություն, կեղծում):

Դա նման է փոքրիկին մեգաֆոն տալուն։ Երբեմն փոքրիկը երգում է… երբեմն փոքրիկը գոռում է ուղիղ քո հոգու մեջ։ Ոչ կատարյալ փոխաբերություն՝ մի փոքր հիմար է, բայց իմաստը հասկանալի է 😅📢։.


Ի՞նչն է արհեստական ​​բանականության տարբերակը դարձնում լավ առօրյա կյանքում։ ✅🤝

Արհեստական ​​բանականության «լավ տարբերակը» չի սահմանվում նրանով, թե որքան խելացի է այն։ Այն սահմանվում է նրանով, թե որքան լավ է այն գործում ճնշման, անորոշության և գայթակղության տակ (իսկ մարդիկ շատ են գայթակղվում էժան ավտոմատացմամբ)։ ( NIST AI RMF 1.0 , OECD )

Ահա թե ինչի եմ ես ուշադրություն դարձնում, երբ ինչ-որ մեկը պնդում է, որ իր արհեստական ​​ինտելեկտի օգտագործումն է պատասխանատու

1) Հստակ սահմաններ

  • Ի՞նչ է թույլատրվում անել համակարգին։

  • Ի՞նչն է բացահայտ արգելվում անել։

  • Ի՞նչ է պատահում, երբ անորոշ է։

2) Մարդկային պատասխանատվություն, որը իրական է, այլ ոչ թե դեկորատիվ

Մարդու կողմից արդյունքների «վերանայումը» կարևոր է միայն այն դեպքում, եթե՝

  • նրանք հասկանում են, թե ինչ են վերանայում, և

  • նրանք կարող են անտեսել այն՝ առանց պատժվելու գործընթացը դանդաղեցնելու համար։.

3) Բացատրելիությունը ճիշտ մակարդակով

Մաթեմատիկան բոլորին պետք չէ։ Մարդիկ իսկապես կարիք ունեն

  • որոշման հիմնական պատճառները,

  • ինչ տվյալներ են օգտագործվել,

  • ինչպես բողոքարկել, ուղղել կամ հրաժարվել։ ( UK ICO )

4) Չափելի կատարողականություն՝ ներառյալ ձախողման ռեժիմները

Ոչ միայն «ճշգրտություն», այլև՝

  • ում վրա է այն ձախողվում,

  • որքան հաճախ է այն լուռ ձախողվում,

  • Ի՞նչ է պատահում, երբ աշխարհը փոխվում է: ( NIST AI RMF 1.0 )

5) Գաղտնիություն և համաձայնություն, որոնք «թաղված չեն կարգավորումներում»

Եթե ​​համաձայնությունը պահանջում է գանձերի որոնում ճաշացանկերում… դա համաձայնություն չէ։ Դա լրացուցիչ քայլերով սողանցք է 😐🧾: ( GDPR հոդված 5 , Մեծ Բրիտանիայի ICO )


Համեմատական ​​աղյուսակ. գործնական եղանակներ՝ արհեստական ​​բանականությանը չափն անցնելուց կանխելու համար 🧰📊

Ստորև բերված են «առաջատար տարբերակները» այն իմաստով, որ դրանք տարածված պաշտպանիչ ցանկապատեր կամ գործառնական գործիքներ են, որոնք փոխում են արդյունքները (ոչ միայն տրամադրությունը):.

Գործիք / տարբերակ Լսարան Գինը Ինչու է այն աշխատում
«Մարդը ցիկլում» վերանայում ( ԵՄ արհեստական ​​բանականության մասին օրենք ) Բարձր խաղադրույքներով որոշումներ կայացնող թիմեր ££ (ժամանակի ծախս) Դանդաղեցնում է վատ ավտոմատացումը։ Բացի այդ, մարդիկ կարող են նկատել տարօրինակ եզրեր, երբեմն…
Որոշման բողոքարկման գործընթաց ( GDPR հոդված 22 ) Արհեստական ​​բանականության որոշումներից ազդված օգտատերերը Ազատի նման Ավելացնում է պատշաճ գործընթաց։ Մարդիկ կարող են ուղղել սխալ տվյալները՝ հնչում է տարրական, քանի որ դա տարրական է։
Աուդիտի գրանցամատյաններ + հետագծելիություն ( NIST SP 800-53 ) Համապատասխանություն, գործառնություններ, անվտանգություն £-££ Թույլ է տալիս պատասխանել «ի՞նչ է պատահել» հարցին ձախողումից հետո՝ ուսերը թոթվելու փոխարեն
Մոդելի գնահատում + կողմնակալության թեստավորում ( NIST AI RMF 1.0 ) Արտադրանքի + ռիսկի թիմեր շատ է տարբերվում Վաղ է բռնում կանխատեսելի վնասը։ Կատարյալ չէ, բայց ավելի լավ է, քան կռահելը։
Կարմիր թիմի թեստավորում ( NIST GenAI պրոֆիլ ) Անվտանգություն + անվտանգության մարդիկ £££ Իրական հարձակվողներից առաջ մոդելավորում է չարաշահումը։ Տհաճ է, բայց արժե այն 😬
Տվյալների նվազագույնի հասցնելը ( UK ICO ) Բոլորը, անկեղծ ասած £ Ավելի քիչ տվյալներ = ավելի քիչ խառնաշփոթ։ Նաև ավելի քիչ խախտումներ, ավելի քիչ անհարմար զրույցներ
Բովանդակության ծագման ազդանշաններ ( C2PA ) Հարթակներ, լրատվամիջոցներ, օգտատերեր £-££ Օգնում է ստուգել՝ «մարդ է սա ստեղծել՞» - անթերի չէ, բայց նվազեցնում է քաոսը
Գնի սահմանափակումներ + մուտքի վերահսկում ( OWASP ) Արհեստական ​​բանականության մատակարարներ + ձեռնարկություններ £ Անմիջապես կանխում է չարաշահման մասշտաբը։ Ինչպես արագության խոչընդոտ վատ գործողների համար

Այո, սեղանը մի փոքր անհարթ է։ Այդպիսին է կյանքը։ 🙂


Արհեստական ​​բանականությունը բարձր խաղադրույքներով որոշումներ կայացնելիս. երբ այն չափազանց հեռու է գնում 🏥🏦⚖️

Ահա թե որտեղ է ամեն ինչ արագ լուրջ դառնում։.

Արհեստական ​​բանականությունը առողջապահության , ֆինանսների , բնակարանաշինության , զբաղվածության , կրթության , ներգաղթի , քրեական արդարադատության ոլորտներում՝ սրանք այն համակարգերն են, որտեղ՝ ( ԵՄ Արհեստական ​​բանականության մասին ակտի III հավելված , FDA )

  • Սխալը կարող է մարդուն արժենալ գումար, ազատություն, արժանապատվություն կամ անվտանգություն,

  • և տուժած անձը հաճախ սահմանափակ ուժ ունի հակահարված տալու համար։.

Մեծ ռիսկը «արհեստական ​​բանականությունը սխալներ է թույլ տալիս» չէ։ Մեծ ռիսկը այն է, որ արհեստական ​​բանականության սխալները դառնում են քաղաքականություն ։ ( NIST AI RMF 1.0 )

Ինչ տեսք ունի այստեղ «չափազանց հեռու»

  • Ավտոմատացված որոշումներ՝ առանց բացատրության. «համակարգիչն ասում է՝ ոչ» ( UK ICO )

  • «Ռիսկի միավորները» դիտարկվում են որպես փաստեր, այլ ոչ թե որպես ենթադրություններ։.

  • Մարդիկ, ովքեր չեն կարող չեղյալ համարել արդյունքները, քանի որ ղեկավարությունը ցանկանում է արագություն։.

  • Անկարգ, կողմնակալ, հնացած կամ պարզապես բացարձակապես սխալ տվյալներ։.

Ինչը չպետք է լինի քննարկման ենթակա

  • Բողոքարկման իրավունք (արագ, հասկանալի, ոչ թե լաբիրինթոս): ( GDPR հոդված 22 , Մեծ Բրիտանիայի ICO )

  • Իրավունք ունեմ իմանալու , որ արհեստական ​​բանականությունը ներգրավված է եղել։ ( Եվրոպական հանձնաժողով )

  • Մարդկային վերանայում՝ հետևանքային արդյունքների համար: ( NIST AI RMF 1.0 )

  • Տվյալների որակի վերահսկողություն , քանի որ աղբը մտնում է, աղբը դուրս է մնում դեռևս ցավալիորեն իրականություն է։

Եթե ​​փորձում եք հստակ սահման գծել, ահա մեկը.
եթե արհեստական ​​բանականության համակարգը կարող է էապես փոխել մեկի կյանքը, ապա այն պահանջում է նույն լրջությունը, ինչ մենք ակնկալում ենք իշխանության այլ ձևերից: Ոչ մի «բետա թեստավորում» այն մարդկանց վրա, ովքեր չեն գրանցվել: 🚫


Դիփֆեյքեր, խաբեություններ և «ես վստահում եմ աչքերիս» ոճի դանդաղ մահը 👀🧨

Սա այն մասն է, որը առօրյա կյանքը դարձնում է… սայթաքուն։.

Երբ արհեստական ​​բանականությունը կարող է ստեղծել

  • ձայնային հաղորդագրություն, որը հնչում է ձեր ընտանիքի անդամի նման ( FTC , FBI )

  • տեսանյութ, որտեղ հանրային դեմքը ինչ-որ բան է «ասում»,

  • կեղծ ակնարկների հեղեղ, որոնք բավականին իսկական են թվում, ( FTC )

  • կեղծ LinkedIn էջ՝ կեղծ աշխատանքային պատմությամբ և կեղծ ընկերներով…

...դա ոչ միայն հնարավորություն է տալիս խաբեություններին։ Այն թուլացնում է սոցիալական կապը, որը թույլ է տալիս անծանոթներին համակարգվել։ Եվ հասարակությունը գործում է անծանոթների համակարգման շնորհիվ։ 😵💫

«Չափազանց հեռու» բառը միայն կեղծ բովանդակություն չէ

Ասիմետրիան է .

  • Սուտ հորինելը էժան է։.

  • Ճշմարտությունը ստուգելը թանկ է և դանդաղ։.

  • Եվ մարդկանց մեծ մասը զբաղված է, հոգնած և թերթում է էջը։.

Ի՞նչն է (մի փոքր) օգնում

  • Ծագման մարկերներ լրատվամիջոցների համար: ( C2PA )

  • Վիրուսայնության համար շփում՝ ակնթարթային զանգվածային տարածման դանդաղեցում։.

  • Անձնագրերի ավելի լավ ստուգում, որտեղ դա կարևոր է (ֆինանսներ, պետական ​​ծառայություններ):.

  • Անհատների համար «կապից դուրս ստուգման» հիմնական սովորություններ (հետ զանգահարեք, օգտագործեք կոդային բառ, հաստատեք մեկ այլ ալիքով): ( FTC )

Ոչ թե շքեղ։ Բայց անվտանգության գոտիներն էլ չեն, և ես անձամբ բավականին կապված եմ դրանց հետ։ 🚗


Հսկողության սողացող տեսարան. երբ արհեստական ​​բանականությունը ամեն ինչ աննկատ վերածում է սենսորի 📷🫥

Սա չի պայթում ինչպես դիփֆեյքը։ Այն պարզապես տարածվում է։.

Արհեստական ​​բանականությունը հեշտացնում է

Եվ նույնիսկ երբ այն անճշտ է, այն կարող է վնասակար լինել, քանի որ կարող է արդարացնել միջամտությունը: Սխալ կանխատեսումը կարող է իրական հետևանքներ առաջացնել:.

Անհարմար մասը

Արհեստական ​​բանականության վրա հիմնված հսկողությունը հաճախ ուղեկցվում է անվտանգության պատմության մեջ

  • «Սա խարդախության կանխարգելման համար է»։

  • «Դա անվտանգության համար է»։

  • «Դա օգտագործողի փորձի համար է»։

Երբեմն դա ճիշտ է։ Երբեմն դա նաև հարմար պատրվակ է այնպիսի համակարգեր կառուցելու համար, որոնք հետագայում շատ դժվար է ապամոնտաժել։ Օրինակ՝ միակողմանի դուռ տեղադրել սեփական տանը, քանի որ այդ պահին այն արդյունավետ էր թվում։ Կրկին, սա կատարյալ փոխաբերություն չէ՝ մի փոքր ծիծաղելի է, բայց դուք դա զգում եք։ 🚪😅

Ինչպիսի՞ն է «լավը» այստեղ

  • Պահպանման և տարածման խիստ սահմանափակումներ։.

  • Մաքրել հրաժարումները։.

  • Նեղ օգտագործման դեպքեր։.

  • Անկախ վերահսկողություն։.

  • «Զգացմունքների հայտնաբերումը» չի օգտագործվում պատժի կամ հսկողության համար։ Խնդրում եմ։ 🙃 ( ԵՄ արհեստական ​​բանականության մասին օրենք )


Աշխատանք, ստեղծագործականություն և լուռ որակազրկման խնդիրը 🧑💻🎨

Ահա թե որտեղ է բանավեճը դառնում անձնական, քանի որ այն շոշափում է ինքնությունը։.

Արհեստական ​​բանականությունը կարող է մարդկանց ավելի արդյունավետ դարձնել։ Այն նաև կարող է մարդկանց փոխարինելիության զգացում պարգևել։ Երկուսն էլ կարող են ճիշտ լինել՝ միաժամանակ, նույն շաբաթվա ընթացքում։ ( OECD , WEF )

Որտեղ դա իսկապես օգտակար է

  • Սովորական տեքստի կազմում, որպեսզի մարդիկ կարողանան կենտրոնանալ մտածողության վրա։.

  • Կրկնվող օրինաչափությունների կոդավորման օգնություն։.

  • Հասանելիության գործիքներ (ենթագրեր, ամփոփում, թարգմանություն):.

  • Մտքերի փոթորիկ, երբ դժվարության մեջ եք։.

Որտեղ այն չափազանց հեռու է գնում

  • Դերերի փոխարինում առանց անցումային պլանների։.

  • Արհեստական ​​բանականության օգտագործումը՝ արտադրությունը սեղմելու և աշխատավարձերը հարթեցնելու համար։.

  • Ստեղծագործական աշխատանքին վերաբերվել որպես անվերջ անվճար ուսումնական տվյալների, ապա ուսերը թոթվել: ( ԱՄՆ հեղինակային իրավունքի գրասենյակ , Մեծ Բրիտանիա GOV.UK )

  • Կրտսեր դերերը անհետացնելը, ինչը արդյունավետ է հնչում մինչև այն պահը, երբ հասկանում ես, որ հենց նոր այրել ես այն աստիճանը, որով պետք է բարձրանան ապագա մասնագետները։.

Անորակությունը նուրբ է։ Դուք դա չեք նկատում ամեն օր։ Հետո մի օր հասկանում եք, որ թիմում ոչ ոք չի հիշում, թե ինչպես է այն աշխատում առանց օգնականի։ Եվ եթե օգնականը սխալվում է, ապա դուք բոլորդ միասին վստահորեն սխալվում եք… ինչը մի տեսակ մղձավանջ է։ 😬


Ուժի կենտրոնացում. ո՞վ կարող է սահմանել լռելյայն կարգավորումները։ 🏢⚡

Նույնիսկ եթե արհեստական ​​բանականությունը «չեզոք» է (այնպես չէ), այն վերահսկողը կարող է ձևավորել

  • որ տեղեկատվությանը հեշտ է մուտք գործել,

  • ինչն է բարձրացվում կամ թաղվում,

  • ինչ լեզու է թույլատրվում,

  • ինչ վարքագծեր են խրախուսվում։.

Եվ քանի որ արհեստական ​​բանականության համակարգերը կարող են թանկ լինել կառուցելու և գործարկելու համար, իշխանությունը հակված է կենտրոնանալուն։ Սա դավադրության տեսություն չէ։ Սա տնտեսագիտություն է՝ տեխնոլոգիական վերնաշապիկով։ ( UK CMA )

«Չափազանց հեռու» պահը այստեղ

Երբ լռելյայնությունները դառնում են անտեսանելի օրենք

  • դուք չգիտեք, թե ինչն է ֆիլտրվում,

  • Դուք չեք կարող ստուգել տրամաբանությունը,

  • և դուք իրատեսորեն չեք կարող հրաժարվել՝ առանց կորցնելու աշխատանքի, համայնքի կամ հիմնական ծառայություններից օգտվելու հնարավորությունը։.

Առողջ էկոհամակարգը պահանջում է մրցակցություն, թափանցիկություն և իրական օգտատիրոջ ընտրություն։ Հակառակ դեպքում դուք, ըստ էության, վարձակալում եք իրականությունը։ 😵♂️


Գործնական ստուգաթերթիկ. ինչպես հասկանալ, որ արհեստական ​​բանականությունը չափազանց հեռու է գնում ձեր աշխարհում 🧾🔍

Ահա աղիքների ստուգման ցանկ, որը ես օգտագործում եմ (և այո, այն անկատար է)

Եթե ​​դուք անհատ եք

  • Ես կարող եմ հասկանալ, թե երբ եմ փոխազդում արհեստական ​​բանականության հետ։ ( Եվրոպական հանձնաժողով )

  • Այս համակարգը ստիպում է ինձ չափից շատ կիսվել։.

  • Ես լավ կլիներ, եթե արդյունքի հետ գործ ունենայի հավաստի ձևով, եթե այն սխալ է։.

  • Եթե ​​ես խաբվեի սրա միջոցով, հարթակը կօգներ ինձ… կամ կշրջեր ուսերիս։.

Եթե ​​դուք բիզնես եք կամ թիմ

  • Մենք օգտագործում ենք արհեստական ​​բանականություն, քանի որ այն արժեքավոր է, կամ որովհետև այն նորաձև է, իսկ կառավարումը անհանգիստ է։.

  • Մենք գիտենք, թե ինչ տվյալների է դիպչում համակարգը։.

  • Տուժած օգտատերը կարող է բողոքարկել արդյունքները: ( UK ICO )

  • Մարդիկ լիազորված են անտեսել մոդելը։.

  • Մենք ունենք արհեստական ​​բանականության խափանումների դեպքում միջադեպերին արձագանքման ծրագրեր։.

  • Մենք հետևում ենք շեղմանը, չարաշահմանը և անսովոր եզրային դեպքերին։.

Եթե ​​այս հարցերից մի քանիսին պատասխանել եք «ոչ», դա չի նշանակում, որ դուք չար եք։ Դա նշանակում է, որ դուք գտնվում եք նորմալ մարդկային վիճակում՝ «մենք առաքեցինք այն և հույս ունեցանք»։ Բայց հույսը, ցավոք, ռազմավարություն չէ։ 😅


Եզրափակիչ նշումներ 🧠✅

Այսպիսով… Արդյո՞ք արհեստական ​​բանականությունը չափազանց հեռու է գնացել։
Այն չափազանց հեռու է գնացել այնտեղ, որտեղ այն կիրառվում է առանց հաշվետվողականության , հատկապես բարձր ռիսկային որոշումների, զանգվածային համոզման և հսկողության հարցերում։ Այն նաև չափազանց հեռու է գնացել այնտեղ, որտեղ խաթարում է վստահությունը, քանի որ երբ վստահությունը խզվում է, ամեն ինչ դառնում է ավելի թանկ և ավելի թշնամական՝ սոցիալական առումով։ ( NIST AI RMF 1.0 , EU AI Act )

Բայց արհեստական ​​բանականությունը բնույթով դատապարտված կամ բնույթով կատարյալ չէ։ Այն հզոր բազմապատկիչ է։ Հարցն այն է, թե արդյոք մենք պաշտպանիչ ցանկապատերը կառուցում ենք նույնքան ագրեսիվ, որքան հնարավորությունները։.

Հակիրճ ամփոփում

  • Արհեստական ​​բանականությունը որպես գործիք լավ է։.

  • Դա վտանգավոր է որպես անպատասխանատու իշխանություն։.

  • Եթե ​​մեկը չի կարողանում բողոքարկել, հասկանալ կամ հրաժարվել, այդտեղից է սկսվում «չափազանց հեռու գնալը»։ 🚦 ( GDPR հոդված 22 , Մեծ Բրիտանիայի ICO )


Հաճախակի տրվող հարցեր

Արդյո՞ք արհեստական ​​բանականությունը չափն անցե՞լ է առօրյա կյանքում։

Շատ տեղերում արհեստական ​​բանականությունը չափազանց հեռու է գնացել, քանի որ սկսել է ներխուժել որոշումների և փոխազդեցությունների մեջ՝ առանց հստակ սահմանների կամ հաշվետվողականության: Խնդիրը հազվադեպ է «արհեստական ​​բանականության գոյությունը». դա արհեստական ​​բանականություն է, որը աննկատելիորեն միացվում է աշխատանքի ընդունման, առողջապահության, հաճախորդների սպասարկման և սնուցման համակարգերին թույլ վերահսկողության պայմաններում: Երբ մարդիկ չեն կարողանում տարբերակել, որ դա արհեստական ​​բանականություն է, չեն կարող վիճարկել արդյունքները կամ չեն կարող հրաժարվել, այն դադարում է գործիք թվալուց և սկսում է թվալ համակարգ:.

Ինչպիսի՞ն է «արհեստական ​​բանականության չափազանց մեծ ներխուժումը» բարձր խաղադրույքներով որոշումներ կայացնելիս։

Թվում է, թե արհեստական ​​բանականությունն օգտագործվում է առողջապահության, ֆինանսների, բնակարանաշինության, զբաղվածության, կրթության, ներգաղթի կամ քրեական արդարադատության ոլորտներում՝ առանց ուժեղ պաշտպանիչ պատնեշների: Հիմնական խնդիրն այն չէ, որ մոդելները սխալներ են թույլ տալիս, այլ այն, որ այդ սխալները վերածվում են քաղաքականության և դժվար է դառնում վիճարկելի: «Համակարգիչն ասում է՝ ոչ» որոշումները՝ թույլ բացատրություններով և առանց իմաստալից բողոքարկումների, այն են, որոնց դեպքում վնասը արագորեն մեծանում է:.

Ինչպե՞ս կարող եմ իմանալ, թե արդյոք ավտոմատացված որոշումը ազդում է ինձ վրա, և ի՞նչ կարող եմ անել։

Տարածված նշան է հանկարծակի արդյունքը, որը դուք չեք կարող բացատրել՝ մերժում, սահմանափակում կամ «ռիսկի գնահատման» տրամադրություն՝ առանց հստակ պատճառի: Շատ համակարգեր պետք է բացահայտեն, թե երբ է արհեստական ​​բանականությունը էական դեր խաղացել, և դուք պետք է կարողանաք հարցնել որոշման հիմնական պատճառները և այն բողոքարկելու քայլերը: Գործնականում խնդրեք մարդկային վերանայում, ուղղեք ցանկացած սխալ տվյալ և պնդեք հրաժարվելու պարզ ուղի:.

Արդյո՞ք արհեստական ​​բանականությունը չափազանց հեռու է գնացել գաղտնիության, համաձայնության և տվյալների օգտագործման հարցում։

Այդպես հաճախ է լինում, երբ համաձայնությունը վերածվում է գանձերի որոնման, և տվյալների հավաքագրումը ընդլայնվում է «ամեն դեպքում»։ Հոդվածի հիմնական կետն այն է, որ գաղտնիությունը և համաձայնությունը մեծ կշիռ չունեն, եթե դրանք թաքնված են միջավայրերում կամ պարտադրվում են անորոշ պայմաններով։ Ավելի առողջ մոտեցում է տվյալների նվազագույնի հասցնելը. հավաքեք ավելի քիչ, պահեք ավելի քիչ և ընտրությունները դարձրեք անսխալ, որպեսզի մարդիկ հետագայում չզարմանան։.

Ինչպե՞ս են խորը ֆեյքերը և արհեստական ​​բանականության խաբեությունները փոխում առցանց «վստահության» իմաստը։

Նրանք ճշմարտությունը դարձնում են ընտրովի՝ իջեցնելով համոզիչ կեղծ ձայների, տեսանյութերի, ակնարկների և ինքնությունների ստեղծման արժեքը։ Ասիմետրիան է խնդիրը. ստերի ստեղծումը էժան է, մինչդեռ ճշմարտության ստուգումը՝ դանդաղ և հոգնեցուցիչ։ Գործնական պաշտպանության միջոցներից են լրատվամիջոցների համար ծագման ազդանշանները, վիրուսային տարածման դանդաղեցումը, ինքնության ավելի ուժեղ ստուգումները, որտեղ դա կարևոր է, և «արտակարգ իրավիճակներում ստուգման» սովորությունները, ինչպիսիք են հետ զանգահարելը կամ ընդհանուր կոդային բառի օգտագործումը։.

Որո՞նք են ամենագործնական պաշտպանիչ ցանկապատերը՝ արհեստական ​​բանականությանը չափազանց հեռու գնալուց կանխելու համար։

Արդյունքները փոխող պաշտպանիչ ցանկապատերը ներառում են բարձր ռիսկային զանգերի իրական մարդկային վերլուծություն, հստակ բողոքարկման գործընթացներ և աուդիտի գրանցամատյաններ, որոնք կարող են պատասխանել «ի՞նչ է պատահել» հարցին ձախողումներից հետո: Մոդելի գնահատումը և կողմնակալության թեստավորումը կարող են կանխատեսելի վնասները հայտնաբերել ավելի վաղ, մինչդեռ կարմիր թիմի թեստավորումը մոդելավորում է չարաշահումը, նախքան հարձակվողները դա կանեն: Արագության սահմանափակումները և մուտքի վերահսկողությունը օգնում են անմիջապես կանխել չարաշահման մասշտաբը, իսկ տվյալների նվազագույնի հասցնելը նվազեցնում է ռիսկը ամբողջ տախտակում:.

Ե՞րբ է արհեստական ​​բանականության կողմից ղեկավարվող հսկողությունը հատում սահմանը։

Այն անցնում է սահմանը, երբ ամեն ինչ լռելյայնորեն վերածվում է սենսորի՝ դեմքի ճանաչում ամբոխի մեջ, շարժման օրինաչափության հետևում կամ վստահ «հույզերի հայտնաբերում», որն օգտագործվում է պատժի կամ հսկողության համար: Նույնիսկ անճշտ համակարգերը կարող են լուրջ վնաս հասցնել, եթե դրանք արդարացնում են միջամտությունները կամ ծառայությունների մերժումը: Լավ պրակտիկան նման է սահմանափակ օգտագործման դեպքերի, պահպանման խիստ սահմանափակումների, իմաստալից հրաժարումների, անկախ վերահսկողության և անկայուն հույզերի վրա հիմնված դատողությունների նկատմամբ վճռական «ոչ»-ի:.

Արհեստական ​​բանականությունը մարդկանց ավելի արդյունավետ է դարձնում, թե՞ աննկատելիորեն նվազեցնում է աշխատանքը որակավորումից ցածր։

Երկուսն էլ կարող են միաժամանակ ճիշտ լինել, և հենց այդ լարվածությունն է խնդիրը։ Արհեստական ​​բանականությունը կարող է օգնել առօրյա նախագծման, կրկնվող կոդավորման ձևերի և մատչելիության հարցում՝ ազատելով մարդկանց կենտրոնանալու ավելի բարձր մակարդակի մտածողության վրա։ Այն չափազանց հեռու է գնում, երբ փոխարինում է դերերը առանց անցումային պլանների, սեղմում է աշխատավարձերը, ստեղծագործական աշխատանքը վերաբերվում է որպես անվճար ուսուցման տվյալներ կամ հեռացնում է կրտսեր դերերը, որոնք կառուցում են ապագա փորձագիտություն։ Հմտությունների նվազեցումը մնում է աննկատ, մինչև թիմերը չկարողանան գործել առանց օգնականի։.

Հղումներ

  1. Ստանդարտների և տեխնոլոգիաների ազգային ինստիտուտ (NIST) - Արհեստական ​​բանականության ռիսկերի կառավարման շրջանակ (AI RMF 1.0) - nist.gov

  2. Եվրոպական Միություն - ԵՄ արհեստական ​​բանականության մասին օրենք (Կանոնակարգ (ԵՄ) 2024/1689) - Պաշտոնական հանդես (անգլերեն) - europa.eu

  3. Եվրոպական հանձնաժողով - Արհեստական ​​բանականության կարգավորող շրջանակ (ԵՄ Արհեստական ​​բանականության մասին օրենքի քաղաքականության էջ) - europa.eu

  4. ԵՄ արհեստական ​​բանականության մասին ակտի սպասարկման կենտրոն - Հավելված III (Բարձր ռիսկի արհեստական ​​բանականության համակարգեր) - europa.eu

  5. Եվրոպական Միություն - Հուսալի արհեստական ​​բանականության կանոններ ԵՄ-ում (ԵՄ արհեստական ​​բանականության մասին օրենքի ամփոփում) - europa.eu

  6. Մեծ Բրիտանիայի տեղեկատվության հանձնակատարի գրասենյակ (ICO) - Ի՞նչ է ավտոմատացված անհատական ​​որոշումների կայացումը և պրոֆիլավորումը: - ico.org.uk

  7. Մեծ Բրիտանիայի տեղեկատվության հանձնակատարի գրասենյակ (ICO) - Ի՞նչ է ասում Մեծ Բրիտանիայի GDPR-ը ավտոմատացված որոշումների կայացման և պրոֆիլավորման մասին: - ico.org.uk

  8. Մեծ Բրիտանիայի տեղեկատվության հանձնակատարի գրասենյակ (ICO) - Ավտոմատացված որոշումների կայացում և պրոֆիլավորում (ուղեցույցի կենտրոն) - ico.org.uk

  9. Մեծ Բրիտանիայի տեղեկատվության հանձնակատարի գրասենյակ (ICO) - Տվյալների նվազագույնի հասցնելը (Մեծ Բրիտանիայի GDPR սկզբունքների ուղեցույց) - ico.org.uk

  10. GDPR-info.eu - GDPR-ի 22-րդ հոդված - gdpr-info.eu

  11. GDPR-info.eu - GDPR-ի 5-րդ հոդված - gdpr-info.eu

  12. ԱՄՆ Դաշնային առևտրի հանձնաժողով (FTC) - Խաբեբաները օգտագործում են արհեստական ​​բանականությունը՝ իրենց ընտանեկան արտակարգ իրավիճակների ծրագրերը բարելավելու համար - ftc.gov

  13. ԱՄՆ Դաշնային Առևտրի Հանձնաժողով (FTC) - Խաբեբաները կեղծ արտակարգ իրավիճակներ են օգտագործում ձեր գումարը գողանալու համար - ftc.gov

  14. ԱՄՆ Դաշնային առևտրի հանձնաժողով (FTC) - Կեղծ ակնարկներն ու վկայությունները արգելող վերջնական կանոն (մամուլի հաղորդագրություն) - ftc.gov

  15. Հետաքննությունների դաշնային բյուրո (ՀԴԲ) - ՀԴԲ-ն զգուշացնում է արհեստական ​​բանականություն օգտագործող կիբերհանցագործների սպառնալիքի աճի մասին - fbi.gov

  16. Տնտեսական համագործակցության և զարգացման կազմակերպություն (OECD) - OECD արհեստական ​​բանականության սկզբունքներ - oecd.ai

  17. Տնտեսական համագործակցության և զարգացման կազմակերպություն - Արհեստական ​​բանականության վերաբերյալ խորհրդի առաջարկություն (OECD/LEGAL/0449) - oecd.org

  18. Եվրոպական հանձնաժողով - Արհեստական ​​բանականության թափանցիկ համակարգերի ուղեցույցներ և գործելակերպի կանոնագիրք (ՀՏՀ) - europa.eu

  19. Բովանդակության ծագման և իսկության կոալիցիա (C2PA) - Տեխնիկական բնութագրեր v2.3 - c2pa.org

  20. Մեծ Բրիտանիայի մրցակցության և շուկաների վարչություն (CMA) - Արհեստական ​​բանականության հիմքի մոդելներ. նախնական զեկույց - gov.uk

  21. ԱՄՆ Սննդի և դեղերի վարչություն (FDA) - Արհեստական ​​բանականությամբ հագեցած բժշկական սարքեր - fda.gov

  22. NIST - Տեղեկատվական համակարգերի և կազմակերպությունների անվտանգության և գաղտնիության վերահսկում (SP 800-53 Rev. 5) - nist.gov

  23. NIST - Գեներատիվ արհեստական ​​բանականության պրոֆիլ (NIST.AI.600-1, ipd) - nist.gov

  24. Բաց համաշխարհային կիրառական անվտանգության նախագիծ (OWASP) - անսահմանափակ ռեսուրսների սպառում (API անվտանգության լավագույն 10, 2023) - owasp.org

  25. NIST - Դեմքի ճանաչման մատակարարի թեստ (FRVT) Ժողովրդագրական տվյալներ - nist.gov

  26. Բարեթ և այլք (2019) - Հոդված (PMC) - nih.gov

  27. Տնտեսական համագործակցության և զարգացման կազմակերպություն - Արհեստական ​​բանականության կիրառումը աշխատավայրում (PDF) - oecd.org

  28. Համաշխարհային տնտեսական ֆորում (ՀՏՖ) - Աշխատատեղերի ապագայի մասին զեկույց 2025 - Համառոտ ակնարկ - weforum.org

  29. ԱՄՆ հեղինակային իրավունքի գրասենյակ - Հեղինակային իրավունք և արհեստական ​​բանականություն, մաս 3. Գեներատիվ արհեստական ​​բանականության ուսուցման զեկույց (նախնական հրատարակման տարբերակ) (PDF) - copyright.gov

  30. Մեծ Բրիտանիայի կառավարություն (GOV.UK) - Հեղինակային իրավունք և արհեստական ​​բանականություն (խորհրդատվություն) - gov.uk

Գտեք արհեստական ​​բանականության վերջին նորույթները պաշտոնական արհեստական ​​բանականության օգնականների խանութում

Մեր մասին

Վերադառնալ բլոգ