ինչպե՞ս է աշխատում արհեստական ​​բանականությունը։

Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը։

Արհեստական ​​բանականությունը կարող է թվալ կախարդական հնարք, որը բոլորը գլխով անում են՝ լուռ մտածելով… սպասեք, ինչպե՞ս է սա իրականում աշխատում: Լավ նորություն: Մենք կբացատրենք այն առանց ավելորդ խոսքերի, կմնանք գործնական և կներկայացնենք մի քանի անկատար անալոգիաներ, որոնք դեռ կդարձնեն այն հաճելի: Եթե ​​ցանկանում եք իմանալ միայն էությունը, անցեք ստորև բերված մեկ րոպեանոց պատասխանին. բայց անկեղծ ասած, մանրամասները այնտեղ են, որտեղ լամպը վառվում է 💡:

Հոդվածներ, որոնք կարող են ձեզ դուր գալ կարդալ սրանից հետո.

🔗 Ի՞նչ է նշանակում GPT-ն
GPT հապավումի և դրա նշանակության համառոտ բացատրություն։

🔗 Որտեղի՞ց է արհեստական ​​բանականությունը ստանում իր տեղեկատվությունը
Աղբյուրներ, որոնք արհեստական ​​բանականությունն օգտագործում է սովորելու, մարզվելու և հարցերին պատասխանելու համար։

🔗 Ինչպես ներառել արհեստական ​​բանականությունը ձեր բիզնեսում
Գործնական քայլեր, գործիքներ և աշխատանքային հոսքեր՝ արհեստական ​​բանականությունը արդյունավետորեն ինտեգրելու համար։

🔗 Ինչպես սկսել արհեստական ​​բանականության ընկերություն
Գաղափարից մինչև մեկնարկ՝ վավերացում, ֆինանսավորում, թիմային աշխատանք և իրականացում։


Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը։ Մեկ րոպեանոց պատասխանը ⏱️

Արհեստական ​​բանականությունը տվյալներից սովորում է օրինաչափություններ՝ կանխատեսումներ անելու կամ բովանդակություն ստեղծելու համար՝ առանց ձեռագիր կանոնների անհրաժեշտության: Համակարգը կլանում է օրինակներ, չափում է, թե որքանով է սխալվում կորստի ֆունկցիայի միջոցով և իր ներքին կոճակներին՝ պարամետրերին , մղում է ամեն անգամ մի փոքր ավելի քիչ սխալվելու: Լվացեք, կրկնեք, բարելավեք: Բավարար ցիկլերով այն դառնում է օգտակար: Նույն պատմությունն է՝ անկախ նրանից, թե դուք դասակարգում եք էլեկտրոնային նամակներ, հայտնաբերում եք ուռուցքներ, խաղում եք սեղանի խաղեր, թե հայկուներ եք գրում: «Մեքենայական ուսուցման» պարզ լեզվով հիմքի համար IBM-ի ակնարկը ամուր է [1]:

Ժամանակակից արհեստական ​​բանականության մեծ մասը մեքենայական ուսուցում է։ Պարզ տարբերակը՝ տվյալների ներմուծում, մուտքային տվյալների և ելքային տվյալների համեմատություն, ապա նոր բաների ընդհանրացում։ Ոչ թե կախարդական մաթեմատիկա, հաշվարկներ և, եթե ազնիվ լինենք, մի պտղունց արվեստ։


«Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը» ✅

Երբ մարդիկ Google-ում որոնում են «Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը» (AI) բաժինը , նրանք սովորաբար ցանկանում են.

  • վերաօգտագործելի մտավոր մոդել, որին կարող են վստահել

  • հիմնական ուսուցման տեսակների քարտեզ, որպեսզի ժարգոնը դադարի վախեցնող լինելուց

  • Նեյրոնային ցանցերի ներսի հայացք՝ առանց կորչելու

  • ինչու՞ են տրանսֆորմերները, կարծես, կառավարում աշխարհը հիմա

  • տվյալներից մինչև տեղակայման գործնական ընթացքը

  • արագ համեմատական ​​աղյուսակ, որը կարող եք էկրանի նկարը պահել և պահպանել

  • էթիկայի, կողմնակալության և հուսալիության պաշտպանիչ ցանկապատեր, որոնք ձեռքի տակ ալիքավոր չեն

Ահա թե ինչ կստանաս այստեղ։ Եթե թափառեմ, դա միտումնավոր է՝ ասես գեղատեսիլ ճանապարհով գնամ և հաջորդ անգամ փողոցները ավելի լավ հիշեմ։ 🗺️


Արհեստական ​​բանականության համակարգերի մեծ մասի հիմնական բաղադրիչները 🧪

Պատկերացրեք արհեստական ​​բանականության համակարգը խոհանոցի նման։ Չորս բաղադրիչ կրկին ու կրկին հայտնվում են.

  1. Տվյալներ ՝ օրինակներ պիտակներով կամ առանց պիտակների։

  2. Մոդել — մաթեմատիկական ֆունկցիա՝ կարգավորելի պարամետրերով։

  3. Նպատակ ՝ կորստի ֆունկցիա, որը չափում է, թե որքան վատ են գուշակությունները։

  4. Օպտիմիզացիա ՝ ալգորիթմ, որը փոխում է պարամետրերը՝ կորուստը նվազեցնելու համար։

Խորը ուսուցման մեջ այդ հրումը սովորաբար գրադիենտային անկում ՝ հետադարձ տարածմամբ ՝ արդյունավետ միջոց՝ պարզելու, թե հսկայական ձայնային տախտակի վրա որ կոճակն է ճռռացել, ապա այն մի փոքր իջեցնելու համար [2]:

Փոքր դեպք. Մենք փխրուն կանոնների վրա հիմնված սպամի ֆիլտրը փոխարինեցինք փոքր վերահսկվող մոդելով: Մեկ շաբաթ պիտակ → չափում → թարմացման ցիկլերից հետո կեղծ դրականները նվազեցին, և աջակցության տոմսերը նվազեցին: Ոչինչ շքեղություն՝ պարզապես ավելի մաքուր նպատակներ (ճշգրտություն «խոզապուխտ» էլ.փոստերի վրա) և ավելի լավ օպտիմալացում:


Ուսուցման մոդելները մեկ հայացքով 🎓

  • Վերահսկվող ուսուցում
    Դուք տրամադրում եք մուտք-ելք զույգեր (պիտակներով լուսանկարներ, սպամ/ոչ սպամ նշված էլ. նամակներ): Մոդելը սովորում է մուտք → ելք: Շատ գործնական համակարգերի հիմքը [1]:

  • Անվերահսկելի ուսուցում՝
    պիտակներ չկան։ Գտեք կառուցվածքային կլաստերներ, սեղմումներ, թաքնված գործոններ։ Հիանալի է ուսումնասիրության կամ նախնական ուսուցման համար։

  • Ինքնահսկվող ուսուցում։
    Մոդելը ստեղծում է իր սեփական պիտակները (կանխատեսում է հաջորդ բառը, բացակայող պատկերի հատվածը)։ Հում տվյալները վերածում է մասշտաբային ուսուցման ազդանշանի. հիմք է հանդիսանում ժամանակակից լեզվի և տեսողության մոդելների համար։

  • Ուժեղացված ուսուցում։
    Գործակալը գործում է, հավաքում է պարգևներ և սովորում է քաղաքականություն, որը մեծացնում է կուտակային պարգևը։ Եթե «արժեքային ֆունկցիաները», «քաղաքականությունները» և «ժամանակային տարբերությունների ուսուցումը» ազդանշան են տալիս, ապա սա նրանց տունն է [5]:

Այո՛, գործնականում կատեգորիաները մշուշոտ են։ Հիբրիդային մեթոդները նորմալ են։ Իրական կյանքը խառնաշփոթ է. լավ ինժեներիան հանդիպում է դրան այնտեղ, որտեղ այն կա։


Նեյրոնային ցանցի ներսում՝ առանց գլխացավի 🧠

Նեյրոնային ցանցը կուտակում է փոքր մաթեմատիկական միավորների (նեյրոնների) շերտեր: Յուրաքանչյուր շերտ վերափոխում է մուտքային տվյալները կշիռներով, լարումներով և ReLU-ի կամ GELU-ի նման փափուկ ոչ գծայինությամբ: Վաղ շերտերը սովորում են պարզ հատկանիշներ, իսկ ավելի խորը շերտերը կոդավորում են աբստրակցիաներ: «Կախարդանքը», եթե մենք կարող ենք այն այդպես անվանել, կազմությունն . շղթայեք փոքր ֆունկցիաները, և դուք կարող եք մոդելավորել չափազանց բարդ երևույթներ:

Մարզման ցիկլ, միայն թրթռոցներ։

  • գուշակել → չափման սխալ → ատրիբուտի մեղքը հետին հենարանի միջոցով → կշիռների հրում → կրկնել։

Այս ամենը արեք խմբաքանակներով, և ինչպես անփույթ պարողը, որը կատարելագործում է յուրաքանչյուր երգը, մոդելը դադարում է ձեր ոտքերի վրա ոտք դնելուց։ Բարյացակամ, խիստ բեքպրոպ գլխի համար տե՛ս [2]:


Ինչո՞ւ տրանսֆորմերները գրավեցին աշխարհը, և ի՞նչ է իրականում նշանակում «ուշադրություն» 🧲

Տրանսֆորմերները օգտագործում են ինքնաուշադրությունը ՝ միաժամանակ կշռադատելու համար, թե մուտքային տեղեկատվության որ մասերն են կարևոր միմյանց համար: Հին մոդելների նման նախադասությունը խիստ ձախից աջ կարդալու փոխարեն, տրանսֆորմերը կարող է ամենուր նայել և դինամիկ կերպով գնահատել հարաբերությունները՝ օրինակ՝ սկանավորելով մարդաշատ սենյակը՝ տեսնելու համար, թե ով ում հետ է խոսում:

Այս դիզայնը հաջորդականության մոդելավորման համար բացառեց կրկնվողությունը և փաթույթները՝ հնարավորություն տալով ապահովել զանգվածային զուգահեռություն և գերազանց մասշտաբավորում: Այն մեկնարկող հոդվածը՝ « Ուշադրությունը Ամեն ինչ է, ինչ քեզ անհրաժեշտ է», ներկայացնում է ճարտարապետությունը և արդյունքները [3]:

Ինքնաուշադրություն մեկ տողում. յուրաքանչյուր թոքենի համար ստեղծեք հարցման , բանալու և արժեքի վեկտորներ, հաշվարկեք նմանությունները՝ ուշադրության կշիռները ստանալու համար, համապատասխանաբար խառնեք արժեքները: Մանրամասներով մանրակրկիտ, ոգով՝ նրբագեղ:

Ուշադրություն. Տրանսֆորմերները գերիշխում են, այլ ոչ թե մենաշնորհում: CNN-ները, RNN-ները և ծառային համույթները դեռևս հաղթում են որոշակի տվյալների տեսակների և լատենտության/արժեքի սահմանափակումների դեպքում: Ընտրեք աշխատանքի համար անհրաժեշտ ճարտարապետությունը, այլ ոչ թե աղմուկը:


Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը։ Գործնական խողովակաշար, որը դուք իրականում կօգտագործեք 🛠️

  1. Խնդրի ձևակերպում.
    Ի՞նչ եք կանխատեսում կամ ստեղծում, և ինչպե՞ս է չափվելու հաջողությունը։

  2. տվյալները
    , անհրաժեշտության դեպքում պիտակավորեք, մաքրեք և բաժանեք։ Հաշվի առեք բացակայող արժեքները և եզրային դեպքերը։

  3. Մոդելավորում
    Սկսեք պարզից։ Հիմքային գծերը (լոգիստիկ ռեգրեսիա, գրադիենտային ուժեղացում կամ փոքր տրանսֆորմատոր) հաճախ գերազանցում են հերոսական բարդությանը։

  4. Ուսուցում
    ՝ Ընտրեք նպատակ, ընտրեք օպտիմիզատոր, սահմանեք հիպերպարամետրեր։ Կրկնեք։

  5. Գնահատում։
    Օգտագործեք հետաձգումներ, խաչաձև վավերացում և ձեր իրական նպատակին կապված չափանիշներ (ճշգրտություն, F1, AUROC, BLEU, շփոթվածություն, լատենտություն):

  6. Տեղակայում։
    Ծառայել API-ի հետևում կամ ներդնել հավելվածում։ Հետևել լատենտությանը, արժեքին, թողունակությանը։

  7. Մոնիթորինգ և կառավարում.
    Հետևեք շեղմանը, արդարությանը, կայունությանը և անվտանգությանը: NIST AI ռիսկերի կառավարման շրջանակը (GOVERN, MAP, MEASURE, MANAGE) հուսալի համակարգերի գործնական ստուգաթերթիկ է ամբողջ ծավալով [4]:

Փոքրիկ դեպք. տեսողական մոդելը լաբորատորիայում լավագույնս է կատարել աշխատանքը, ապա դաշտում սխալվել է լուսավորության փոփոխության ժամանակ։ Մուտքային հիստոգրամների շեղման մոնիթորինգ. արագ լրացում + ճշգրտում, վերականգնված կատարողականություն։ Ձանձրալի՞ է։ Այո։ Արդյունավե՞տ է։ Նաև՝ այո։


Համեմատական ​​աղյուսակ՝ մոտեցումներ, ում համար են դրանք նախատեսված, մոտավոր արժեք, ինչու են դրանք աշխատում 📊

Միտումնավոր անկատար է. մի փոքր անհավասար ձևակերպումը մարդկային տպավորություն է թողնում։

մոտեցում Իդեալական լսարան Գինու չափ Ինչու է այն աշխատում / նշումներ
Վերահսկվող ուսուցում Վերլուծաբաններ, արտադրանքի թիմեր ցածր-միջին Ուղղակի քարտեզագրման մուտքագրում → պիտակ։ Հիանալի է, երբ պիտակներ կան. կազմում է բազմաթիվ տեղակայված համակարգերի հիմքը [1]:
Անվերահսկելի Տվյալների հետազոտողներ, հետազոտություններ և զարգացումներ ցածր Գտնում է կլաստերներ/սեղմումներ/թաքնված գործոններ՝ լավ է հայտնաբերման և նախնական մարզման համար։
Ինքնահսկվող Հարթակի թիմեր միջին Պատրաստում է իր սեփական պիտակները հում տվյալների մասշտաբներից՝ հաշվարկների և տվյալների միջոցով։
Ուժեղացված ուսուցում Ռոբոտաշինություն, օպերատիվ հետազոտություններ միջին-բարձր Սովորում է քաղաքականությունները պարգևատրման ազդանշաններից. կարդացեք Սաթոնի և Բարտոյի աշխատանքը կանոնի համար [5]:
Տրանսֆորմերներ NLP, տեսլական, բազմամոդալ միջին-բարձր Ինքնաուշադրությունը ֆիքսում է հեռահար շեղումները և լավ զուգահեռ է անցնում. տե՛ս բնօրինակ հոդվածը [3]:
Դասական ML (ծառեր) Աղյուսակային բիզնես հավելվածներ ցածր Կառուցվածքային տվյալների վրա էժան, արագ, հաճախ ցնցող կերպով ուժեղ բազային գծեր։
Կանոնների վրա հիմնված/խորհրդանշական Համապատասխանություն, դետերմինիստական շատ ցածր Թափանցիկ տրամաբանություն; օգտակար է հիբրիդներում, երբ ձեզ անհրաժեշտ է աուդիտի հնարավորություն։
Գնահատում և ռիսկ Բոլորը տարբերվում է Օգտագործեք NIST-ի GOVERN-MAP-MEASURE-MANAGE-ը՝ այն անվտանգ և օգտակար պահելու համար [4]:

Գին-մոտ = տվյալների պիտակավորում + հաշվարկներ + մարդիկ + սպասարկում:


Խորը ուսումնասիրություն 1 - կորստի ֆունկցիաներ, գրադիենտներ և ամեն ինչ փոխող փոքրիկ քայլեր 📉

Պատկերացրեք, որ տան գինը չափից կանխատեսելու համար գիծ եք տեղադրում։ Դուք ընտրում եք (w) և (b) պարամետրերը, կանխատեսում (\hat{y} = wx + b) և սխալը չափում միջին քառակուսային կորստի միջոցով։ Գրադիենտը ցույց է տալիս, թե որ ուղղությամբ շարժվել (w) և (b)՝ կորուստը ամենաարագը նվազեցնելու համար, ինչպես մառախուղի մեջ իջնելը՝ զգալով, թե որ կողմն է թեքվում գետնի թեքությունը։ Թարմացրեք յուրաքանչյուր խմբաքանակից հետո, և ձեր գիծը կմոտենա իրականությանը։

Խորը ցանցերում դա նույն երգն է՝ ավելի մեծ հաճախականությամբ։ Backprop-ը արդյունավետորեն հաշվարկում է, թե ինչպես են յուրաքանչյուր շերտի պարամետրերը ազդել վերջնական սխալի վրա, որպեսզի դուք կարողանաք միլիոնավոր (կամ միլիարդավոր) կոճակներ ուղղորդել ճիշտ ուղղությամբ [2]:

Հիմնական ինտուիցիաներ.

  • Կորուստը ձևավորում է լանդշաֆտը։

  • Գրադիենտները ձեր կողմնացույցն են։

  • Սովորելու տեմպը քայլի չափս է. չափազանց մեծ է, և դուք տատանվում եք, չափազանց փոքր է, և դուք քնած եք։

  • Կանոնավորացումը թույլ չի տալիս ձեզ անգիր սովորել մարզումների հավաքածուն՝ ինչպես թութակը՝ կատարյալ հիշողությամբ, բայց առանց հասկանալու։


Խորը ուսումնասիրություն 2 - ներկառուցված նյութեր, հուշումներ և վերականգնում 🧭

Ներդրումները բառերը, պատկերները կամ առարկաները տեղափոխում են վեկտորային տարածություններ, որտեղ նմանատիպ առարկաները գտնվում են միմյանց մոտ։ Դա թույլ է տալիս ձեզ՝

  • գտնել իմաստային առումով նման հատվածներ

  • ուժային որոնում, որը հասկանում է իմաստը

  • միացրեք վերականգնման-ընդլայնված սերնդի (RAG) գործառույթը , որպեսզի լեզվական մոդելը կարողանա որոնել փաստերը նախքան գրելը

Հուշումը այն է, թե ինչպես եք դուք կառավարում գեներատիվ մոդելները՝ նկարագրում եք առաջադրանքը, բերում օրինակներ, սահմանում սահմանափակումներ: Պատկերացրեք դա նման է շատ արագաշարժ ինտերնի համար շատ մանրամասն նկարագրություն գրելուն՝ եռանդուն, երբեմն չափազանց ինքնավստահ:

Գործնական խորհուրդ. եթե ձեր մոդելը հալյուցինացիաներ ունի, ավելացրեք վերականգնման գործառույթ, խստացրեք հուշումը կամ գնահատեք հիմնավորված չափանիշներով՝ «թրթռումների» փոխարեն:


Խորը ուսումնասիրություն 3 - գնահատում առանց պատրանքների 🧪

Լավ գնահատականը ձանձրալի է թվում, և հենց դա էլ իմաստն է։

  • Օգտագործեք փակ թեստային հավաքածու։

  • Ընտրեք մի չափանիշ, որը արտացոլում է օգտատիրոջ ցավը։

  • Կատարեք աբլյացիաներ, որպեսզի իմանաք, թե իրականում ինչն է օգնել։

  • Գրանցեք ձախողումները իրական, անճաշակ օրինակներով։

Արտադրության մեջ մոնիթորինգը գնահատում է, որը երբեք չի դադարում: Տեղի է ունենում շեղում: Հայտնվում են նոր ժարգոններ, սենսորները վերակարգավորվում են, և երեկվա մոդելը մի փոքր սահում է: NIST շրջանակը գործնական հղում է շարունակական ռիսկերի կառավարման և կառավարման համար, այլ ոչ թե քաղաքականության փաստաթուղթ, որը կարելի է դարակում դնել [4]:


Նշում էթիկայի, կողմնակալության և հուսալիության մասին ⚖️

Արհեստական ​​բանականության համակարգերը արտացոլում են իրենց տվյալները և տեղակայման համատեքստը։ Դա իր հետ բերում է ռիսկեր՝ կողմնակալություն, խմբերի միջև անհավասար սխալներ, բաշխման փոփոխության պայմաններում փխրունություն։ Էթիկական օգտագործումը ընտրովի չէ, այլ աղյուսակային խաղադրույքներ։ NIST-ը մատնանշում է կոնկրետ գործելակերպեր՝ փաստաթղթավորել ռիսկերը և ազդեցությունները, չափել վնասակար կողմնակալությունը, ստեղծել պահեստային տարբերակներ և մարդկանց տեղեկացված պահել, երբ խաղադրույքները բարձր են [4]:

Կոնկրետ քայլեր, որոնք կօգնեն.

  • հավաքել բազմազան, ներկայացուցչական տվյալներ

  • չափել կատարողականը ենթաբնակչությունների միջև

  • փաստաթղթերի մոդելային քարտեր և տվյալների թերթիկներ

  • ավելացնել մարդկային վերահսկողություն, որտեղ խաղադրույքները բարձր են

  • նախագծել անվտապահ համակարգեր, երբ համակարգը անորոշ է


Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը։ Որպես մտավոր մոդել, կարող եք վերօգտագործել 🧩

Կոմպակտ ստուգաթերթիկ, որը կարող եք կիրառել գրեթե ցանկացած արհեստական ​​բանականության համակարգի վրա.

  • Ո՞րն է նպատակը։ Կանխատեսում, դասակարգում, գեներացում, վերահսկողություն։

  • Որտեղի՞ց է գալիս սովորելու ազդանշանը։ Պիտակներ, ինքնակառավարվող առաջադրանքներ, պարգևներ։

  • Ի՞նչ ճարտարապետություն է օգտագործվում։ Գծային մոդել, ծառային համույթ, CNN, RNN, տրանսֆորմատոր [3]:

  • Ինչպե՞ս է այն օպտիմալացված։ Գրադիենտային անկման տատանումներ/հետին հենարան [2]:

  • Ի՞նչ տվյալների ռեժիմ։ Փոքր պիտակավորված հավաքածու, չպիտակավորված տեքստի օվկիանոս, սիմուլյացված միջավայր։

  • Որո՞նք են ձախողման եղանակները և պաշտպանության միջոցները։ Կողմնակալություն, շեղում, հալյուցինացիա, լատենտություն, ծախսերի համապատասխանեցում NIST-ի GOVERN-MAP-MEASURE-MANAGE-ին [4]:

Եթե ​​կարողանաք պատասխանել դրանց, ապա դուք հիմնականում հասկանում եք համակարգը, մնացածը իրականացման մանրամասներն ու ոլորտի գիտելիքներն են։


Արագ աղբյուրներ, որոնք արժե էջանիշ դարձնել 🔖

  • Մեքենայական ուսուցման հասկացությունների (IBM) պարզ լեզվով ներածություն [1]

  • Հետադարձ տարածում՝ դիագրամներով և նուրբ մաթեմատիկայով [2]

  • Տրանսֆորմերի թուղթը, որը փոխեց հաջորդականության մոդելավորումը [3]

  • NIST-ի արհեստական ​​բանականության ռիսկերի կառավարման շրջանակը (գործնական կառավարում) [4]

  • Կանոնիկ ուժեղացված ուսուցման դասագիրք (անվճար) [5]


Հաճախակի տրվող հարցեր կայծակի մասին ⚡

Արհեստական ​​բանականությունը միայն վիճակագրություն է՞:
Դա վիճակագրություն է՝ գումարած օպտիմալացում, հաշվարկներ, տվյալների ճարտարագիտություն և արտադրանքի դիզայն: Վիճակագրությունը կմախքն է, մնացածը՝ մկանները:

Արդյո՞ք ավելի մեծ մոդելները միշտ են հաղթում:
Մասշտաբավորումը օգնում է, բայց տվյալների որակը, գնահատումը և տեղակայման սահմանափակումները հաճախ ավելի կարևոր են: Ձեր նպատակին հասնող ամենափոքր մոդելը սովորաբար լավագույնն է օգտատերերի և դրամապանակների համար:

Կարո՞ղ է արհեստական ​​բանականությունը հասկանալ։
Սահմանեք հասկանալը ։ Մոդելները արտացոլում են տվյալների կառուցվածքը և տպավորիչ կերպով ընդհանրացնում են, բայց դրանք ունեն կույր կետեր և կարող են վստահորեն սխալվել։ Վերաբերվեք դրանց որպես հզոր գործիքների, այլ ոչ թե իմաստունների։

Տրանսֆորմերների դարաշրջանը հավերժական է՞։
Հավանաբար՝ ոչ հավերժ։ Այն այժմ գերիշխող է, քանի որ ուշադրությունը զուգահեռաբար է ընթանում և լավ մասշտաբավորվում, ինչպես ցույց է տվել սկզբնական հոդվածը [3]։ Սակայն հետազոտությունները շարունակում են առաջ շարժվել։


Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը։ Շատ երկար, չեմ կարդացել 🧵

  • Արհեստական ​​բանականությունը տվյալներից սովորում է օրինաչափություններ, նվազագույնի է հասցնում կորուստը և ընդհանրացնում է նոր մուտքային տվյալների վրա [1,2]:

  • Վերահսկվող, չվերահսկվող, ինքնավերահսկվող և ամրապնդող ուսուցումը հիմնական մարզման կառուցվածքներն են. ՌԼ-ն սովորում է պարգևատրումներից [5]:

  • Նեյրոնային ցանցերը օգտագործում են հետադարձ տարածումը և գրադիենտային անկումը միլիոնավոր պարամետրեր արդյունավետորեն կարգավորելու համար [2]:

  • Տրանսֆորմերները գերիշխում են հաջորդականության բազմաթիվ առաջադրանքների վրա, քանի որ ինքնաուշադրությունը գրանցում է հարաբերությունները զուգահեռաբար՝ մասշտաբով [3]:

  • Իրական աշխարհի արհեստական ​​բանականությունը մի ամբողջ գործընթաց է՝ խնդրի մշակումից մինչև տեղակայում և կառավարում, և NIST-ի շրջանակը ձեզ անկեղծ է պահում ռիսկերի հարցում [4]:

Եթե ​​ինչ-որ մեկը կրկին հարցնի՝ «Ինչպե՞ս է աշխատում արհեստական ​​բանականությունը» , կարող եք ժպտալ, սուրճ խմել և ասել. այն սովորում է տվյալներից, օպտիմալացնում է կորուստը և օգտագործում է ճարտարապետություններ, ինչպիսիք են տրանսֆորմատորները կամ ծառերի համադրությունները՝ կախված խնդրից։ Այնուհետև աչքով արեք, քանի որ դա և՛ պարզ է, և՛ աննկատելիորեն ավարտված։ 😉


Հղումներ

[1] IBM - Ի՞նչ է մեքենայական ուսուցումը։
կարդալ ավելին

[2] Մայքլ Նիլսեն - Ինչպես է աշխատում հետադարձ տարածման ալգորիթմը
կարդալ ավելին

[3] Վասվանի և այլք - Ուշադրությունն ամեն ինչ է, ինչ ձեզ պետք է (arXiv)
կարդալ ավելին

[4] NIST - Արհեստական ​​բանականության ռիսկերի կառավարման շրջանակ (AI RMF 1.0)
կարդալ ավելին

[5] Սաթոն և Բարտո - Ուժեղացված ուսուցում. Ներածություն (2-րդ հրատարակություն)
կարդալ ավելին

Գտեք արհեստական ​​բանականության վերջին նորույթները պաշտոնական արհեստական ​​բանականության օգնականների խանութում

Մեր մասին

Վերադառնալ բլոգ