Արհեստական բանականությունը կարող է թվալ կախարդական հնարք, որը բոլորը գլխով անում են՝ լուռ մտածելով… սպասեք, ինչպե՞ս է սա իրականում աշխատում: Լավ նորություն: Մենք կբացատրենք այն առանց ավելորդ խոսքերի, կմնանք գործնական և կներկայացնենք մի քանի անկատար անալոգիաներ, որոնք դեռ կդարձնեն այն հաճելի: Եթե ցանկանում եք իմանալ միայն էությունը, անցեք ստորև բերված մեկ րոպեանոց պատասխանին. բայց անկեղծ ասած, մանրամասները այնտեղ են, որտեղ լամպը վառվում է 💡:
Հոդվածներ, որոնք կարող են ձեզ դուր գալ կարդալ սրանից հետո.
🔗 Ի՞նչ է նշանակում GPT-ն
GPT հապավումի և դրա նշանակության համառոտ բացատրություն։
🔗 Որտեղի՞ց է արհեստական բանականությունը ստանում իր տեղեկատվությունը
Աղբյուրներ, որոնք արհեստական բանականությունն օգտագործում է սովորելու, մարզվելու և հարցերին պատասխանելու համար։
🔗 Ինչպես ներառել արհեստական բանականությունը ձեր բիզնեսում
Գործնական քայլեր, գործիքներ և աշխատանքային հոսքեր՝ արհեստական բանականությունը արդյունավետորեն ինտեգրելու համար։
🔗 Ինչպես սկսել արհեստական բանականության ընկերություն
Գաղափարից մինչև մեկնարկ՝ վավերացում, ֆինանսավորում, թիմային աշխատանք և իրականացում։
Ինչպե՞ս է աշխատում արհեստական բանականությունը։ Մեկ րոպեանոց պատասխանը ⏱️
Արհեստական բանականությունը տվյալներից սովորում է օրինաչափություններ՝ կանխատեսումներ անելու կամ բովանդակություն ստեղծելու համար՝ առանց ձեռագիր կանոնների անհրաժեշտության: Համակարգը կլանում է օրինակներ, չափում է, թե որքանով է սխալվում կորստի ֆունկցիայի միջոցով և իր ներքին կոճակներին՝ պարամետրերին , մղում է ամեն անգամ մի փոքր ավելի քիչ սխալվելու: Լվացեք, կրկնեք, բարելավեք: Բավարար ցիկլերով այն դառնում է օգտակար: Նույն պատմությունն է՝ անկախ նրանից, թե դուք դասակարգում եք էլեկտրոնային նամակներ, հայտնաբերում եք ուռուցքներ, խաղում եք սեղանի խաղեր, թե հայկուներ եք գրում: «Մեքենայական ուսուցման» պարզ լեզվով հիմքի համար IBM-ի ակնարկը ամուր է [1]:
Ժամանակակից արհեստական բանականության մեծ մասը մեքենայական ուսուցում է։ Պարզ տարբերակը՝ տվյալների ներմուծում, մուտքային տվյալների և ելքային տվյալների համեմատություն, ապա նոր բաների ընդհանրացում։ Ոչ թե կախարդական մաթեմատիկա, հաշվարկներ և, եթե ազնիվ լինենք, մի պտղունց արվեստ։
«Ինչպե՞ս է աշխատում արհեստական բանականությունը» ✅
Երբ մարդիկ Google-ում որոնում են «Ինչպե՞ս է աշխատում արհեստական բանականությունը» (AI) բաժինը , նրանք սովորաբար ցանկանում են.
-
վերաօգտագործելի մտավոր մոդել, որին կարող են վստահել
-
հիմնական ուսուցման տեսակների քարտեզ, որպեսզի ժարգոնը դադարի վախեցնող լինելուց
-
Նեյրոնային ցանցերի ներսի հայացք՝ առանց կորչելու
-
ինչու՞ են տրանսֆորմերները, կարծես, կառավարում աշխարհը հիմա
-
տվյալներից մինչև տեղակայման գործնական ընթացքը
-
արագ համեմատական աղյուսակ, որը կարող եք էկրանի նկարը պահել և պահպանել
-
էթիկայի, կողմնակալության և հուսալիության պաշտպանիչ ցանկապատեր, որոնք ձեռքի տակ ալիքավոր չեն
Ահա թե ինչ կստանաս այստեղ։ Եթե թափառեմ, դա միտումնավոր է՝ ասես գեղատեսիլ ճանապարհով գնամ և հաջորդ անգամ փողոցները ավելի լավ հիշեմ։ 🗺️
Արհեստական բանականության համակարգերի մեծ մասի հիմնական բաղադրիչները 🧪
Պատկերացրեք արհեստական բանականության համակարգը խոհանոցի նման։ Չորս բաղադրիչ կրկին ու կրկին հայտնվում են.
-
Տվյալներ ՝ օրինակներ պիտակներով կամ առանց պիտակների։
-
Մոդել — մաթեմատիկական ֆունկցիա՝ կարգավորելի պարամետրերով։
-
Նպատակ ՝ կորստի ֆունկցիա, որը չափում է, թե որքան վատ են գուշակությունները։
-
Օպտիմիզացիա ՝ ալգորիթմ, որը փոխում է պարամետրերը՝ կորուստը նվազեցնելու համար։
Խորը ուսուցման մեջ այդ հրումը սովորաբար գրադիենտային անկում ՝ հետադարձ տարածմամբ ՝ արդյունավետ միջոց՝ պարզելու, թե հսկայական ձայնային տախտակի վրա որ կոճակն է ճռռացել, ապա այն մի փոքր իջեցնելու համար [2]:
Փոքր դեպք. Մենք փխրուն կանոնների վրա հիմնված սպամի ֆիլտրը փոխարինեցինք փոքր վերահսկվող մոդելով: Մեկ շաբաթ պիտակ → չափում → թարմացման ցիկլերից հետո կեղծ դրականները նվազեցին, և աջակցության տոմսերը նվազեցին: Ոչինչ շքեղություն՝ պարզապես ավելի մաքուր նպատակներ (ճշգրտություն «խոզապուխտ» էլ.փոստերի վրա) և ավելի լավ օպտիմալացում:
Ուսուցման մոդելները մեկ հայացքով 🎓
-
Վերահսկվող ուսուցում
Դուք տրամադրում եք մուտք-ելք զույգեր (պիտակներով լուսանկարներ, սպամ/ոչ սպամ նշված էլ. նամակներ): Մոդելը սովորում է մուտք → ելք: Շատ գործնական համակարգերի հիմքը [1]: -
Անվերահսկելի ուսուցում՝
պիտակներ չկան։ Գտեք կառուցվածքային կլաստերներ, սեղմումներ, թաքնված գործոններ։ Հիանալի է ուսումնասիրության կամ նախնական ուսուցման համար։ -
Ինքնահսկվող ուսուցում։
Մոդելը ստեղծում է իր սեփական պիտակները (կանխատեսում է հաջորդ բառը, բացակայող պատկերի հատվածը)։ Հում տվյալները վերածում է մասշտաբային ուսուցման ազդանշանի. հիմք է հանդիսանում ժամանակակից լեզվի և տեսողության մոդելների համար։ -
Ուժեղացված ուսուցում։
Գործակալը գործում է, հավաքում է պարգևներ և սովորում է քաղաքականություն, որը մեծացնում է կուտակային պարգևը։ Եթե «արժեքային ֆունկցիաները», «քաղաքականությունները» և «ժամանակային տարբերությունների ուսուցումը» ազդանշան են տալիս, ապա սա նրանց տունն է [5]:
Այո՛, գործնականում կատեգորիաները մշուշոտ են։ Հիբրիդային մեթոդները նորմալ են։ Իրական կյանքը խառնաշփոթ է. լավ ինժեներիան հանդիպում է դրան այնտեղ, որտեղ այն կա։
Նեյրոնային ցանցի ներսում՝ առանց գլխացավի 🧠
Նեյրոնային ցանցը կուտակում է փոքր մաթեմատիկական միավորների (նեյրոնների) շերտեր: Յուրաքանչյուր շերտ վերափոխում է մուտքային տվյալները կշիռներով, լարումներով և ReLU-ի կամ GELU-ի նման փափուկ ոչ գծայինությամբ: Վաղ շերտերը սովորում են պարզ հատկանիշներ, իսկ ավելի խորը շերտերը կոդավորում են աբստրակցիաներ: «Կախարդանքը», եթե մենք կարող ենք այն այդպես անվանել, կազմությունն . շղթայեք փոքր ֆունկցիաները, և դուք կարող եք մոդելավորել չափազանց բարդ երևույթներ:
Մարզման ցիկլ, միայն թրթռոցներ։
-
գուշակել → չափման սխալ → ատրիբուտի մեղքը հետին հենարանի միջոցով → կշիռների հրում → կրկնել։
Այս ամենը արեք խմբաքանակներով, և ինչպես անփույթ պարողը, որը կատարելագործում է յուրաքանչյուր երգը, մոդելը դադարում է ձեր ոտքերի վրա ոտք դնելուց։ Բարյացակամ, խիստ բեքպրոպ գլխի համար տե՛ս [2]:
Ինչո՞ւ տրանսֆորմերները գրավեցին աշխարհը, և ի՞նչ է իրականում նշանակում «ուշադրություն» 🧲
Տրանսֆորմերները օգտագործում են ինքնաուշադրությունը ՝ միաժամանակ կշռադատելու համար, թե մուտքային տեղեկատվության որ մասերն են կարևոր միմյանց համար: Հին մոդելների նման նախադասությունը խիստ ձախից աջ կարդալու փոխարեն, տրանսֆորմերը կարող է ամենուր նայել և դինամիկ կերպով գնահատել հարաբերությունները՝ օրինակ՝ սկանավորելով մարդաշատ սենյակը՝ տեսնելու համար, թե ով ում հետ է խոսում:
Այս դիզայնը հաջորդականության մոդելավորման համար բացառեց կրկնվողությունը և փաթույթները՝ հնարավորություն տալով ապահովել զանգվածային զուգահեռություն և գերազանց մասշտաբավորում: Այն մեկնարկող հոդվածը՝ « Ուշադրությունը Ամեն ինչ է, ինչ քեզ անհրաժեշտ է», ներկայացնում է ճարտարապետությունը և արդյունքները [3]:
Ինքնաուշադրություն մեկ տողում. յուրաքանչյուր թոքենի համար ստեղծեք հարցման , բանալու և արժեքի վեկտորներ, հաշվարկեք նմանությունները՝ ուշադրության կշիռները ստանալու համար, համապատասխանաբար խառնեք արժեքները: Մանրամասներով մանրակրկիտ, ոգով՝ նրբագեղ:
Ուշադրություն. Տրանսֆորմերները գերիշխում են, այլ ոչ թե մենաշնորհում: CNN-ները, RNN-ները և ծառային համույթները դեռևս հաղթում են որոշակի տվյալների տեսակների և լատենտության/արժեքի սահմանափակումների դեպքում: Ընտրեք աշխատանքի համար անհրաժեշտ ճարտարապետությունը, այլ ոչ թե աղմուկը:
Ինչպե՞ս է աշխատում արհեստական բանականությունը։ Գործնական խողովակաշար, որը դուք իրականում կօգտագործեք 🛠️
-
Խնդրի ձևակերպում.
Ի՞նչ եք կանխատեսում կամ ստեղծում, և ինչպե՞ս է չափվելու հաջողությունը։ -
տվյալները
, անհրաժեշտության դեպքում պիտակավորեք, մաքրեք և բաժանեք։ Հաշվի առեք բացակայող արժեքները և եզրային դեպքերը։ -
Մոդելավորում
Սկսեք պարզից։ Հիմքային գծերը (լոգիստիկ ռեգրեսիա, գրադիենտային ուժեղացում կամ փոքր տրանսֆորմատոր) հաճախ գերազանցում են հերոսական բարդությանը։ -
Ուսուցում
՝ Ընտրեք նպատակ, ընտրեք օպտիմիզատոր, սահմանեք հիպերպարամետրեր։ Կրկնեք։ -
Գնահատում։
Օգտագործեք հետաձգումներ, խաչաձև վավերացում և ձեր իրական նպատակին կապված չափանիշներ (ճշգրտություն, F1, AUROC, BLEU, շփոթվածություն, լատենտություն): -
Տեղակայում։
Ծառայել API-ի հետևում կամ ներդնել հավելվածում։ Հետևել լատենտությանը, արժեքին, թողունակությանը։ -
Մոնիթորինգ և կառավարում.
Հետևեք շեղմանը, արդարությանը, կայունությանը և անվտանգությանը: NIST AI ռիսկերի կառավարման շրջանակը (GOVERN, MAP, MEASURE, MANAGE) հուսալի համակարգերի գործնական ստուգաթերթիկ է ամբողջ ծավալով [4]:
Փոքրիկ դեպք. տեսողական մոդելը լաբորատորիայում լավագույնս է կատարել աշխատանքը, ապա դաշտում սխալվել է լուսավորության փոփոխության ժամանակ։ Մուտքային հիստոգրամների շեղման մոնիթորինգ. արագ լրացում + ճշգրտում, վերականգնված կատարողականություն։ Ձանձրալի՞ է։ Այո։ Արդյունավե՞տ է։ Նաև՝ այո։
Համեմատական աղյուսակ՝ մոտեցումներ, ում համար են դրանք նախատեսված, մոտավոր արժեք, ինչու են դրանք աշխատում 📊
Միտումնավոր անկատար է. մի փոքր անհավասար ձևակերպումը մարդկային տպավորություն է թողնում։
| մոտեցում | Իդեալական լսարան | Գինու չափ | Ինչու է այն աշխատում / նշումներ |
|---|---|---|---|
| Վերահսկվող ուսուցում | Վերլուծաբաններ, արտադրանքի թիմեր | ցածր-միջին | Ուղղակի քարտեզագրման մուտքագրում → պիտակ։ Հիանալի է, երբ պիտակներ կան. կազմում է բազմաթիվ տեղակայված համակարգերի հիմքը [1]: |
| Անվերահսկելի | Տվյալների հետազոտողներ, հետազոտություններ և զարգացումներ | ցածր | Գտնում է կլաստերներ/սեղմումներ/թաքնված գործոններ՝ լավ է հայտնաբերման և նախնական մարզման համար։ |
| Ինքնահսկվող | Հարթակի թիմեր | միջին | Պատրաստում է իր սեփական պիտակները հում տվյալների մասշտաբներից՝ հաշվարկների և տվյալների միջոցով։ |
| Ուժեղացված ուսուցում | Ռոբոտաշինություն, օպերատիվ հետազոտություններ | միջին-բարձր | Սովորում է քաղաքականությունները պարգևատրման ազդանշաններից. կարդացեք Սաթոնի և Բարտոյի աշխատանքը կանոնի համար [5]: |
| Տրանսֆորմերներ | NLP, տեսլական, բազմամոդալ | միջին-բարձր | Ինքնաուշադրությունը ֆիքսում է հեռահար շեղումները և լավ զուգահեռ է անցնում. տե՛ս բնօրինակ հոդվածը [3]: |
| Դասական ML (ծառեր) | Աղյուսակային բիզնես հավելվածներ | ցածր | Կառուցվածքային տվյալների վրա էժան, արագ, հաճախ ցնցող կերպով ուժեղ բազային գծեր։ |
| Կանոնների վրա հիմնված/խորհրդանշական | Համապատասխանություն, դետերմինիստական | շատ ցածր | Թափանցիկ տրամաբանություն; օգտակար է հիբրիդներում, երբ ձեզ անհրաժեշտ է աուդիտի հնարավորություն։ |
| Գնահատում և ռիսկ | Բոլորը | տարբերվում է | Օգտագործեք NIST-ի GOVERN-MAP-MEASURE-MANAGE-ը՝ այն անվտանգ և օգտակար պահելու համար [4]: |
Գին-մոտ = տվյալների պիտակավորում + հաշվարկներ + մարդիկ + սպասարկում:
Խորը ուսումնասիրություն 1 - կորստի ֆունկցիաներ, գրադիենտներ և ամեն ինչ փոխող փոքրիկ քայլեր 📉
Պատկերացրեք, որ տան գինը չափից կանխատեսելու համար գիծ եք տեղադրում։ Դուք ընտրում եք (w) և (b) պարամետրերը, կանխատեսում (\hat{y} = wx + b) և սխալը չափում միջին քառակուսային կորստի միջոցով։ Գրադիենտը ցույց է տալիս, թե որ ուղղությամբ շարժվել (w) և (b)՝ կորուստը ամենաարագը նվազեցնելու համար, ինչպես մառախուղի մեջ իջնելը՝ զգալով, թե որ կողմն է թեքվում գետնի թեքությունը։ Թարմացրեք յուրաքանչյուր խմբաքանակից հետո, և ձեր գիծը կմոտենա իրականությանը։
Խորը ցանցերում դա նույն երգն է՝ ավելի մեծ հաճախականությամբ։ Backprop-ը արդյունավետորեն հաշվարկում է, թե ինչպես են յուրաքանչյուր շերտի պարամետրերը ազդել վերջնական սխալի վրա, որպեսզի դուք կարողանաք միլիոնավոր (կամ միլիարդավոր) կոճակներ ուղղորդել ճիշտ ուղղությամբ [2]:
Հիմնական ինտուիցիաներ.
-
Կորուստը ձևավորում է լանդշաֆտը։
-
Գրադիենտները ձեր կողմնացույցն են։
-
Սովորելու տեմպը քայլի չափս է. չափազանց մեծ է, և դուք տատանվում եք, չափազանց փոքր է, և դուք քնած եք։
-
Կանոնավորացումը թույլ չի տալիս ձեզ անգիր սովորել մարզումների հավաքածուն՝ ինչպես թութակը՝ կատարյալ հիշողությամբ, բայց առանց հասկանալու։
Խորը ուսումնասիրություն 2 - ներկառուցված նյութեր, հուշումներ և վերականգնում 🧭
Ներդրումները բառերը, պատկերները կամ առարկաները տեղափոխում են վեկտորային տարածություններ, որտեղ նմանատիպ առարկաները գտնվում են միմյանց մոտ։ Դա թույլ է տալիս ձեզ՝
-
գտնել իմաստային առումով նման հատվածներ
-
ուժային որոնում, որը հասկանում է իմաստը
-
միացրեք վերականգնման-ընդլայնված սերնդի (RAG) գործառույթը , որպեսզի լեզվական մոդելը կարողանա որոնել փաստերը նախքան գրելը
Հուշումը այն է, թե ինչպես եք դուք կառավարում գեներատիվ մոդելները՝ նկարագրում եք առաջադրանքը, բերում օրինակներ, սահմանում սահմանափակումներ: Պատկերացրեք դա նման է շատ արագաշարժ ինտերնի համար շատ մանրամասն նկարագրություն գրելուն՝ եռանդուն, երբեմն չափազանց ինքնավստահ:
Գործնական խորհուրդ. եթե ձեր մոդելը հալյուցինացիաներ ունի, ավելացրեք վերականգնման գործառույթ, խստացրեք հուշումը կամ գնահատեք հիմնավորված չափանիշներով՝ «թրթռումների» փոխարեն:
Խորը ուսումնասիրություն 3 - գնահատում առանց պատրանքների 🧪
Լավ գնահատականը ձանձրալի է թվում, և հենց դա էլ իմաստն է։
-
Օգտագործեք փակ թեստային հավաքածու։
-
Ընտրեք մի չափանիշ, որը արտացոլում է օգտատիրոջ ցավը։
-
Կատարեք աբլյացիաներ, որպեսզի իմանաք, թե իրականում ինչն է օգնել։
-
Գրանցեք ձախողումները իրական, անճաշակ օրինակներով։
Արտադրության մեջ մոնիթորինգը գնահատում է, որը երբեք չի դադարում: Տեղի է ունենում շեղում: Հայտնվում են նոր ժարգոններ, սենսորները վերակարգավորվում են, և երեկվա մոդելը մի փոքր սահում է: NIST շրջանակը գործնական հղում է շարունակական ռիսկերի կառավարման և կառավարման համար, այլ ոչ թե քաղաքականության փաստաթուղթ, որը կարելի է դարակում դնել [4]:
Նշում էթիկայի, կողմնակալության և հուսալիության մասին ⚖️
Արհեստական բանականության համակարգերը արտացոլում են իրենց տվյալները և տեղակայման համատեքստը։ Դա իր հետ բերում է ռիսկեր՝ կողմնակալություն, խմբերի միջև անհավասար սխալներ, բաշխման փոփոխության պայմաններում փխրունություն։ Էթիկական օգտագործումը ընտրովի չէ, այլ աղյուսակային խաղադրույքներ։ NIST-ը մատնանշում է կոնկրետ գործելակերպեր՝ փաստաթղթավորել ռիսկերը և ազդեցությունները, չափել վնասակար կողմնակալությունը, ստեղծել պահեստային տարբերակներ և մարդկանց տեղեկացված պահել, երբ խաղադրույքները բարձր են [4]:
Կոնկրետ քայլեր, որոնք կօգնեն.
-
հավաքել բազմազան, ներկայացուցչական տվյալներ
-
չափել կատարողականը ենթաբնակչությունների միջև
-
փաստաթղթերի մոդելային քարտեր և տվյալների թերթիկներ
-
ավելացնել մարդկային վերահսկողություն, որտեղ խաղադրույքները բարձր են
-
նախագծել անվտապահ համակարգեր, երբ համակարգը անորոշ է
Ինչպե՞ս է աշխատում արհեստական բանականությունը։ Որպես մտավոր մոդել, կարող եք վերօգտագործել 🧩
Կոմպակտ ստուգաթերթիկ, որը կարող եք կիրառել գրեթե ցանկացած արհեստական բանականության համակարգի վրա.
-
Ո՞րն է նպատակը։ Կանխատեսում, դասակարգում, գեներացում, վերահսկողություն։
-
Որտեղի՞ց է գալիս սովորելու ազդանշանը։ Պիտակներ, ինքնակառավարվող առաջադրանքներ, պարգևներ։
-
Ի՞նչ ճարտարապետություն է օգտագործվում։ Գծային մոդել, ծառային համույթ, CNN, RNN, տրանսֆորմատոր [3]:
-
Ինչպե՞ս է այն օպտիմալացված։ Գրադիենտային անկման տատանումներ/հետին հենարան [2]:
-
Ի՞նչ տվյալների ռեժիմ։ Փոքր պիտակավորված հավաքածու, չպիտակավորված տեքստի օվկիանոս, սիմուլյացված միջավայր։
-
Որո՞նք են ձախողման եղանակները և պաշտպանության միջոցները։ Կողմնակալություն, շեղում, հալյուցինացիա, լատենտություն, ծախսերի համապատասխանեցում NIST-ի GOVERN-MAP-MEASURE-MANAGE-ին [4]:
Եթե կարողանաք պատասխանել դրանց, ապա դուք հիմնականում հասկանում եք համակարգը, մնացածը իրականացման մանրամասներն ու ոլորտի գիտելիքներն են։
Արագ աղբյուրներ, որոնք արժե էջանիշ դարձնել 🔖
-
Մեքենայական ուսուցման հասկացությունների (IBM) պարզ լեզվով ներածություն [1]
-
Հետադարձ տարածում՝ դիագրամներով և նուրբ մաթեմատիկայով [2]
-
Տրանսֆորմերի թուղթը, որը փոխեց հաջորդականության մոդելավորումը [3]
-
NIST-ի արհեստական բանականության ռիսկերի կառավարման շրջանակը (գործնական կառավարում) [4]
-
Կանոնիկ ուժեղացված ուսուցման դասագիրք (անվճար) [5]
Հաճախակի տրվող հարցեր կայծակի մասին ⚡
Արհեստական բանականությունը միայն վիճակագրություն է՞:
Դա վիճակագրություն է՝ գումարած օպտիմալացում, հաշվարկներ, տվյալների ճարտարագիտություն և արտադրանքի դիզայն: Վիճակագրությունը կմախքն է, մնացածը՝ մկանները:
Արդյո՞ք ավելի մեծ մոդելները միշտ են հաղթում:
Մասշտաբավորումը օգնում է, բայց տվյալների որակը, գնահատումը և տեղակայման սահմանափակումները հաճախ ավելի կարևոր են: Ձեր նպատակին հասնող ամենափոքր մոդելը սովորաբար լավագույնն է օգտատերերի և դրամապանակների համար:
Կարո՞ղ է արհեստական բանականությունը հասկանալ։
Սահմանեք հասկանալը ։ Մոդելները արտացոլում են տվյալների կառուցվածքը և տպավորիչ կերպով ընդհանրացնում են, բայց դրանք ունեն կույր կետեր և կարող են վստահորեն սխալվել։ Վերաբերվեք դրանց որպես հզոր գործիքների, այլ ոչ թե իմաստունների։
Տրանսֆորմերների դարաշրջանը հավերժական է՞։
Հավանաբար՝ ոչ հավերժ։ Այն այժմ գերիշխող է, քանի որ ուշադրությունը զուգահեռաբար է ընթանում և լավ մասշտաբավորվում, ինչպես ցույց է տվել սկզբնական հոդվածը [3]։ Սակայն հետազոտությունները շարունակում են առաջ շարժվել։
Ինչպե՞ս է աշխատում արհեստական բանականությունը։ Շատ երկար, չեմ կարդացել 🧵
-
Արհեստական բանականությունը տվյալներից սովորում է օրինաչափություններ, նվազագույնի է հասցնում կորուստը և ընդհանրացնում է նոր մուտքային տվյալների վրա [1,2]:
-
Վերահսկվող, չվերահսկվող, ինքնավերահսկվող և ամրապնդող ուսուցումը հիմնական մարզման կառուցվածքներն են. ՌԼ-ն սովորում է պարգևատրումներից [5]:
-
Նեյրոնային ցանցերը օգտագործում են հետադարձ տարածումը և գրադիենտային անկումը միլիոնավոր պարամետրեր արդյունավետորեն կարգավորելու համար [2]:
-
Տրանսֆորմերները գերիշխում են հաջորդականության բազմաթիվ առաջադրանքների վրա, քանի որ ինքնաուշադրությունը գրանցում է հարաբերությունները զուգահեռաբար՝ մասշտաբով [3]:
-
Իրական աշխարհի արհեստական բանականությունը մի ամբողջ գործընթաց է՝ խնդրի մշակումից մինչև տեղակայում և կառավարում, և NIST-ի շրջանակը ձեզ անկեղծ է պահում ռիսկերի հարցում [4]:
Եթե ինչ-որ մեկը կրկին հարցնի՝ «Ինչպե՞ս է աշխատում արհեստական բանականությունը» , կարող եք ժպտալ, սուրճ խմել և ասել. այն սովորում է տվյալներից, օպտիմալացնում է կորուստը և օգտագործում է ճարտարապետություններ, ինչպիսիք են տրանսֆորմատորները կամ ծառերի համադրությունները՝ կախված խնդրից։ Այնուհետև աչքով արեք, քանի որ դա և՛ պարզ է, և՛ աննկատելիորեն ավարտված։ 😉
Հղումներ
[1] IBM - Ի՞նչ է մեքենայական ուսուցումը։
կարդալ ավելին
[2] Մայքլ Նիլսեն - Ինչպես է աշխատում հետադարձ տարածման ալգորիթմը
կարդալ ավելին
[3] Վասվանի և այլք - Ուշադրությունն ամեն ինչ է, ինչ ձեզ պետք է (arXiv)
կարդալ ավելին
[4] NIST - Արհեստական բանականության ռիսկերի կառավարման շրջանակ (AI RMF 1.0)
կարդալ ավելին
[5] Սաթոն և Բարտո - Ուժեղացված ուսուցում. Ներածություն (2-րդ հրատարակություն)
կարդալ ավելին