Ինչպե՞ս է արհեստական ​​բանականությունը սովորում։

Ինչպե՞ս է արհեստական ​​բանականությունը սովորում։

Ինչպե՞ս է արհեստական ​​բանականությունը սովորում։ Այս ուղեցույցը պարզ լեզվով բացահայտում է հիմնական գաղափարները՝ օրինակներով, փոքրիկ շեղումներով և մի քանի անկատար փոխաբերություններով, որոնք դեռևս որոշ չափով օգնում են։ Եկեք սկսենք։ 🙂

Հոդվածներ, որոնք կարող են ձեզ դուր գալ կարդալ սրանից հետո.

🔗 Ի՞նչ է կանխատեսող արհեստական ​​բանականությունը
Ինչպես են կանխատեսողական մոդելները կանխատեսում արդյունքները՝ օգտագործելով պատմական և իրական ժամանակի տվյալներ։

🔗 Ո՞ր ոլորտները կխաթարեն արհեստական ​​բանականությունը
Ոլորտներ, որոնք, ամենայն հավանականությամբ, վերափոխվել են ավտոմատացման, վերլուծության և գործակալների կողմից։

🔗 Ի՞նչ է նշանակում GPT-ն
GPT հապավումի և ծագման հստակ բացատրություն։

🔗 Ի՞նչ են արհեստական ​​բանականության հմտությունները
Արհեստական ​​բանականության համակարգերի կառուցման, տեղակայման և կառավարման հիմնական կարողություններ։


Այսպիսով, ինչպե՞ս է դա արվում։ ✅

Երբ մարդիկ հարցնում են՝ ինչպե՞ս է արհեստական ​​բանականությունը սովորում , նրանք սովորաբար նկատի ունեն՝ ինչպե՞ս են մոդելները դառնում օգտակար, այլ ոչ թե պարզապես գեղեցիկ մաթեմատիկական խաղալիքներ։ Պատասխանը բաղադրատոմս է.

  • Հստակ նպատակ ՝ կորստի ֆունկցիա, որը սահմանում է, թե ինչ է նշանակում «լավ»։ [1]

  • Որակյալ տվյալներ ՝ բազմազան, մաքուր և համապատասխան։ Քանակը օգնում է, բազմազանությունն՝ ավելի շատ։ [1]

  • Կայուն օպտիմալացում - գրադիենտային վայրէջք՝ ժայռից տատանվելուց խուսափելու հնարքներով։ [1], [2]

  • Ընդհանրացում ՝ հաջողություն նոր տվյալների վրա, այլ ոչ թե միայն մարզումների հավաքածուի վրա։ [1]

  • Հետադարձ կապի ցիկլեր - գնահատում, սխալների վերլուծություն և իտերացիա։ [2], [3]

  • Անվտանգություն և հուսալիություն ՝ պաշտպանիչ ցանկապատեր, փորձարկում և փաստաթղթավորում, որպեսզի քաոս չլինի։ [4]

Հասանելի հիմունքների համար դասական խորը ուսուցման տեքստը, տեսողականորեն հարմար դասընթացի նշումները և գործնական արագացված դասընթացը ներառում են հիմնականը՝ առանց ձեզ խեղդելու խորհրդանիշների մեջ։ [1]–[3]


Ինչպե՞ս է արհեստական ​​բանականությունը սովորում։ Կարճ պատասխանը պարզ անգլերենով ✍️

Արհեստական ​​բանականության մոդելը սկսվում է պատահական պարամետրերի արժեքներից։ Այն կանխատեսում է կատարում։ Դուք գնահատում եք այդ կանխատեսումը կորուստով ։ Այնուհետև դուք թեքում եք այդ պարամետրերը՝ կորուստը նվազեցնելու համար՝ օգտագործելով գրադիենտներ ։ Կրկնեք այս ցիկլը բազմաթիվ օրինակների վրա, մինչև մոդելը դադարի բարելավվել (կամ ձեր նախուտեստները վերջանան)։ Սա մարզման ցիկլն է մեկ շնչով։ [1], [2]

Եթե ​​ցանկանում եք մի փոքր ավելի մեծ ճշգրտություն, տե՛ս ստորև գրադիենտային անկման և հետադարձ տարածման բաժինները: Արագ և հասկանալի տեղեկատվության համար լայնորեն հասանելի են կարճ դասախոսություններ և լաբորատոր աշխատանքներ: [2], [3]


Հիմունքներ՝ տվյալներ, նպատակներ, օպտիմալացում 🧩

  • Տվյալներ ՝ մուտքային տվյալներ (x) և թիրախային տվյալներ (y): Որքան լայն և մաքուր են տվյալները, այնքան մեծ է ընդհանրացման հավանականությունը: Տվյալների հավաքագրումը հմայիչ չէ, բայց այն չգովաբանված հերոս է: [1]

  • Մոդել ՝ ֆունկցիա (f_\theta(x))՝ պարամետրերով (\theta): Նեյրոնային ցանցերը պարզ միավորների կույտեր են, որոնք բարդ ձևերով համակցվում են՝ լեգո աղյուսներ, բայց ավելի փափուկ: [1]

  • Նպատակ ՝ Կորուստ (L(f_\theta(x), y)), որը չափում է սխալը։ Օրինակներ՝ միջին քառակուսային սխալ (ռեգրեսիա) և խաչաձև էնտրոպիա (դասակարգում)։ [1]

  • Օպտիմիզացիա . Պարամետրերը թարմացնելու համար օգտագործեք (ստոխաստիկ) գրադիենտային անկում. (\theta \leftarrow \theta - \eta \nabla_\theta L): Սովորելու տեմպը (\eta). չափազանց մեծ է, և դուք ցատկոտում եք, չափազանց փոքր է, և դուք հավերժ քնած եք: [2]

Կորստի ֆունկցիաների և օպտիմալացման մաքուր ներածության համար մարզման հնարքների և թակարդների վերաբերյալ դասական նշումները հիանալի ակնարկ են։ [2]


Վերահսկվող ուսուցում. սովորեք պիտակավորված օրինակներից 🎯

Միտք ՝ ցույց տալ մուտքագրման և ճիշտ պատասխանի մոդելային զույգերը։ Մոդելը սովորում է արտապատկերում (x \rightarrow y):

  • Հաճախակի առաջադրանքներ ՝ պատկերի դասակարգում, տրամադրության վերլուծություն, աղյուսակային կանխատեսում, խոսքի ճանաչում։

  • Տիպիկ կորուստներ ՝ խաչաձև էնտրոպիա դասակարգման համար, միջին քառակուսային սխալ ռեգրեսիայի համար։ [1]

  • Թակարդներ ՝ պիտակների աղմուկ, դասերի անհավասարակշռություն, տվյալների արտահոսք։

  • Ուղղումներ ՝ շերտավորված նմուշառում, կայուն կորուստներ, կանոնավորում և տվյալների ավելի բազմազան հավաքագրում։ [1], [2]

Տասնամյակների չափորոշիչների և արտադրական պրակտիկայի հիման վրա, վերահսկվող ուսուցումը մնում է աշխատանքի հիմնական ձին, քանի որ արդյունքները կանխատեսելի են, իսկ չափանիշները՝ պարզ։ [1], [3]


Անվերահսկելի և ինքնավերահսկվող ուսուցում. սովորեք տվյալների կառուցվածքը 🔍

Անհսկողությունը սովորում է օրինաչափություններ առանց պիտակների։

  • Կլաստերացում . նման կետերի խմբավորումը (k-միջինները) պարզ է և զարմանալիորեն օգտակար։

  • Չափսերի կրճատում . սեղմել տվյալները հիմնական ուղղություններով. PCA-ն դարպասային գործիք է։

  • Խտության/գեներատիվ մոդելավորում . ուսումնասիրեք տվյալների բաշխումն ինքնին։ [1]

Ինքնակառավարվողը ժամանակակից շարժիչն է. մոդելները ստեղծում են իրենց սեփական վերահսկողությունը (դիմակավորված կանխատեսում, համեմատական ​​ուսուցում), թույլ տալով ձեզ նախնական մարզվել չպիտակավորված տվյալների օվկիանոսների վրա և հետագայում կատարելագործել դրանք։ [1]


Ուժեղացված ուսուցում. սովորել գործելով և հետադարձ կապ ստանալով 🕹️

Գործակալը միջավայրի հետ , ստանում պարգևներ և սովորում է մի քաղաքականություն , որը մաքսիմալացնում է երկարաժամկետ պարգևը։

  • Հիմնական մասեր ՝ վիճակ, գործողություն, պարգևատրում, քաղաքականություն, արժեքային ֆունկցիա։

  • Ալգորիթմներ ՝ Q-ուսուցում, քաղաքականության գրադիենտներ, դերասան-քննադատ։

  • Հետազոտություն ընդդեմ շահագործման . փորձեք նոր բաներ կամ վերօգտագործեք այն, ինչը աշխատում է։

  • Վարկերի վերագրում . որ գործողությունն ինչ արդյունքի հանգեցրեց։

Մարդկային հետադարձ կապը կարող է ուղղորդել ուսուցումը, երբ պարգևատրումները խառնաշփոթ են. դասակարգումը կամ նախընտրությունները օգնում են ձևավորել վարքագիծը՝ առանց ձեռքով կոդավորելու կատարյալ պարգևը: [5]


Խորը ուսուցում, հետադարձ շարժում և գրադիենտային անկում - բաբախող սիրտ 🫀

Նեյրոնային ցանցերը պարզ ֆունկցիաների կազմություններ են։ Սովորելու համար դրանք հիմնվում են հետադարձ տարածման ՝

  1. Առաջ անցում . հաշվարկել կանխատեսումները մուտքային տվյալներից։

  2. Կորուստ . չափել կանխատեսումների և նպատակների միջև եղած սխալը։

  3. Հետադարձ անցում . կիրառեք շղթայի կանոնը՝ յուրաքանչյուր պարամետրի դիմաց կորստի գրադիենտները հաշվարկելու համար։

  4. Թարմացում . օպտիմալացնողի միջոցով պարամետրերը տեղաշարժեք գրադիենտի դեմ։

Իմպուլսի, RMSProp-ի և Adam-ի նման տարբերակները մարզումը դարձնում են պակաս քմահաճ։ Կանոնավորացման մեթոդները, ինչպիսիք են դուրս մնալը , քաշի կորուստը և վաղ կանգառը, օգնում են մոդելներին ընդհանրացնել՝ անգիր սովորելու փոխարեն։ [1], [2]


Տրանսֆորմերներ և ուշադրություն. ինչու են ժամանակակից մոդելները խելացի թվում 🧠✨

Տրանսֆորմերները փոխարինեցին լեզվի և տեսողության բազմաթիվ կրկնվող կարգավորումները: Հիմնական հնարքը ինքնաուշադրությունն , որը թույլ է տալիս մոդելին կշռադատել իր մուտքային տվյալների տարբեր մասերը՝ կախված համատեքստից: Դիրքային կոդավորումները կարգավորում են կարգը, իսկ բազմագլուխ ուշադրությունը թույլ է տալիս մոդելին միաժամանակ կենտրոնանալ տարբեր հարաբերությունների վրա: Մասշտաբավորումը՝ ավելի բազմազան տվյալներ, ավելի շատ պարամետրեր, ավելի երկար ուսուցում, հաճախ օգնում է՝ նվազող եկամտաբերության և աճող ծախսերի պայմաններում: [1], [2]


Ընդհանրացում, գերհարմարեցում և կողմնակալության-վարիացիայի պարը 🩰

Մոդելը կարող է հաջողությամբ հաղթահարել մարզումների հավաքածուն և միևնույն ժամանակ ձախողվել իրական աշխարհում։

  • Գերհարմարեցում . հիշում է աղմուկը։ Մարզման սխալը նվազում է, թեստային սխալը մեծանում։

  • Թերհարմարեցում . չափազանց պարզ է, բաց է թողնում ազդանշանը։

  • Կողմնակալության և շեղման փոխզիջում . բարդությունը նվազեցնում է կողմնակալությունը, բայց կարող է մեծացնել շեղումը։

Ինչպես ավելի լավ ընդհանրացնել:

  • Ավելի բազմազան տվյալներ՝ տարբեր աղբյուրներ, տիրույթներ և սահմանային դեպքեր։

  • Կանոնավորացում - ուսումից դուրս մնալը, քաշի նվազումը, տվյալների ավելացումը։

  • Պատշաճ վավերացում՝ մաքուր թեստային հավաքածուներ, փոքր տվյալների խաչաձև վավերացում։

  • Մոնիթորինգի շեղում - ձեր տվյալների բաշխումը կփոխվի ժամանակի ընթացքում։

Ռիսկերի գիտակցմամբ զբաղվող պրակտիկան դրանք դիտարկում է որպես կյանքի ցիկլի գործողություններ՝ կառավարում, քարտեզագրում, չափում և կառավարում, այլ ոչ թե միանգամյա ստուգաթերթիկներ: [4]


Կարևոր չափանիշներ. ինչպես ենք իմանում, որ ուսուցումը տեղի է ունեցել 📈

  • Դասակարգում ՝ ճշգրտություն, ճշգրտություն, հետկանչ, F1, ROC AUC: Անհավասարակշիռ տվյալները պահանջում են ճշգրտության-հետկանչման կորեր: [3]

  • Ռեգրեսիա ՝ MSE, MAE, (R^2): [1]

  • Դասակարգում/վերականգնում ՝ MAP, NDCG, recall@K. [1]

  • Գեներատիվ մոդելներ ՝ շփոթվածություն (լեզու), BLEU/ROUGE/CIDEr (տեքստ), CLIP-ի վրա հիմնված գնահատականներ (մուլտիմոդալ) և, ամենակարևորը՝ մարդկային գնահատումներ: [1], [3]

Ընտրեք չափանիշներ, որոնք համապատասխանում են օգտագործողի ազդեցությանը: Ճշգրտության փոքր աճը կարող է անտեղի լինել, եթե կեղծ դրական արդյունքները իրական ծախսն են: [3]


Ուսուցման աշխատանքային հոսքը իրական աշխարհում. պարզ նախագիծ 🛠️

  1. Սահմանեք խնդիրը ՝ սահմանելով մուտքային և ելքային տվյալները, սահմանափակումները և հաջողության չափանիշները։

  2. Տվյալների հոսք - հավաքագրում, պիտակավորում, մաքրում, բաժանում, լրացում:

  3. Հիմքային գիծ - սկսեք պարզից. գծային կամ ծառային բազային գծերը ցնցողորեն մրցունակ են։

  4. Մոդելավորում ՝ փորձեք մի քանի ընտանիք՝ գրադիենտով ուժեղացված ծառեր (աղյուսակային), CNN-ներ (պատկերներ), տրանսֆորմատորներ (տեքստ):

  5. Մարզում ՝ ժամանակացույց, ուսուցման տեմպի ռազմավարություններ, ստուգման կետեր, անհրաժեշտության դեպքում՝ խառը ճշգրտություն։

  6. Գնահատում ՝ աբլյացիաներ և սխալների վերլուծություն։ Նայեք սխալներին, ոչ միայն միջինին։

  7. Տեղակայում - եզրակացությունների մշակման խողովակաշար, մոնիթորինգ, գրանցում, հետկանչի պլան։

  8. Իտերատ ՝ տվյալների ավելի լավ մշակում, նուրբ կարգավորում կամ ճարտարապետական ​​​​շտկումներ։

Փոքր դեպք . էլեկտրոնային փոստի դասակարգչի նախագիծը սկսվեց պարզ գծային բազային գծից, այնուհետև մանրակրկիտ կարգավորվեց նախապես պատրաստված տրանսֆորմատորը: Ամենամեծ հաղթանակը մոդելը չէր, այլ պիտակավորման ռուբրիկայի խստացումը և թերներկայացված «եզր» կատեգորիաների ավելացումը: Երբ դրանք ներառվեցին, վավերացումը F1 վերջապես հետևեց իրական աշխարհի կատարողականին: (Ձեր ապագա եսը. շատ շնորհակալ եմ):


Տվյալների որակը, պիտակավորումը և ինքներդ ձեզ չխաբելու նուրբ արվեստը 🧼

Աղբը ներս, զղջումը դուրս։ Պիտակավորման ուղեցույցները պետք է լինեն հետևողական, չափելի և վերանայված։ Կարևոր է մեկնաբանողների միջև համաձայնությունը։

  • Գրեք ռուբրիկաներ օրինակներով, անկյունային դեպքերով և սահմանումներ կատարող նախադասություններով։

  • Աուդիտի տվյալների հավաքածուներ՝ կրկնօրինակների և գրեթե կրկնօրինակների համար։

  • Հետևեք ծագմանը. որտեղից է եկել յուրաքանչյուր օրինակը և ինչու է այն ներառված։

  • Չափեք տվյալների ծածկույթը իրական օգտատիրոջ սցենարների համեմատ, այլ ոչ թե պարզապես կոկիկ չափանիշի համեմատ։

Սրանք հիանալի կերպով տեղավորվում են ավելի լայն հավաստիացման և կառավարման շրջանակներում, որոնք դուք կարող եք իրականում կիրառել։ [4]


Փոխանցեք ուսուցումը, ճշգրտումը և ադապտերները՝ վերօգտագործեք ծանր աշխատանքը ♻️

Նախապես մարզված մոդելները սովորում են ընդհանուր ներկայացումներ, իսկ նուրբ կարգավորումը դրանք հարմարեցնում է ձեր խնդրին ավելի քիչ տվյալներով։

  • Հատկանիշների արդյունահանում . սառեցնել ողնաշարը, մարզել փոքր գլուխը։

  • Լրիվ նուրբ կարգավորում . թարմացրեք բոլոր պարամետրերը՝ առավելագույն հզորության համար։

  • Պարամետրերով արդյունավետ մեթոդներ ՝ ադապտերներ, LoRA ոճի ցածր կարգի թարմացումներ՝ լավ են, երբ հաշվարկը խիստ է։

  • Դոմեյնի հարմարեցում . դոմեյնների միջև ներդրված տվյալների համընկնում. փոքր փոփոխություններ, մեծ ձեռքբերումներ: [1], [2]

Այս վերօգտագործման օրինաչափությունն է պատճառը, որ ժամանակակից նախագծերը կարող են արագ ընթանալ առանց հերոսական բյուջեների։


Անվտանգություն, հուսալիություն և հավասարեցում՝ ոչ լրացուցիչ մասեր 🧯

Սովորելը միայն ճշգրտության մասին չէ։ Դուք նաև ցանկանում եք մոդելներ, որոնք հուսալի են, արդար և համապատասխանում են նախատեսված օգտագործմանը։

  • Հակառակորդական կայունություն . փոքր խանգարումները կարող են խաբել մոդելները։

  • Կողմնակալություն և արդարություն . չափեք ենթախմբի կատարողականը, այլ ոչ թե միայն ընդհանուր միջին ցուցանիշները։

  • Մեկնաբանելիություն . հատկանիշների վերագրումը և զոնդավորումը կօգնեն ձեզ հասկանալ, թե ինչու ։

  • Մարդը ցիկլում . երկիմաստ կամ բարձր ազդեցություն ունեցող որոշումների էսկալացիայի ուղիներ: [4], [5]

Նախընտրությունների վրա հիմնված ուսուցումը մարդկային դատողությունը ներառելու պրագմատիկ միջոցներից մեկն է, երբ նպատակները անորոշ են։ [5]


Հաճախակի տրվող հարցեր մեկ րոպեում՝ արագ արձագանք ⚡

  • Այսպիսով, իրականում, ինչպե՞ս է արհեստական ​​բանականությունը սովորում: Կորստի դեմ իտերատիվ օպտիմալացման միջոցով, որտեղ գրադիենտները ուղղորդում են պարամետրերը դեպի ավելի լավ կանխատեսումներ: [1], [2]

  • Ավելի շատ տվյալները միշտ օգնո՞ւմ են։ Սովորաբար, մինչև նվազող եկամուտները։ Բազմազանությունը հաճախ գերազանցում է հում ծավալին։ [1]

  • Ի՞նչ անել, եթե պիտակները խառնաշփոթ են։ Օգտագործեք աղմուկից պաշտպանված մեթոդներ, ավելի լավ չափանիշներ և մտածեք ինքնուրույն վերահսկվող նախնական ուսուցման մասին։ [1]

  • Ինչո՞ւ են տրանսֆորմատորները գերիշխում։ Ուշադրությունը լավ է մասշտաբավորվում և արտացոլում է երկարաժամկետ կախվածությունները. գործիքավորումը հասուն է։ [1], [2]

  • Ինչպե՞ս իմանամ, որ ավարտել եմ մարզումը։ Հաստատման կորստի մակարդակը կայունանում է, չափանիշները կայունանում են, և նոր տվյալները գործում են սպասվածի պես, այնուհետև վերահսկում են շեղումները։ [3], [4]


Համեմատական ​​աղյուսակ - գործիքներ, որոնք իրականում կարող եք օգտագործել այսօր 🧰

Միտումնավոր մի փոքր տարօրինակ է։ Գները վերաբերում են հիմնական գրադարաններին. մասշտաբային ուսուցումը, իհարկե, ունի ենթակառուցվածքային ծախսեր։

Գործիք Լավագույնը Գինը Ինչու է այն լավ աշխատում
PyTorch Հետազոտողներ, շինարարներ Անվճար - բաց src Դինամիկ գրաֆիկներ, ուժեղ էկոհամակարգ, հիանալի ձեռնարկներ։
TensorFlow Արտադրական թիմեր Անվճար - բաց src Հասունների սպասարկում, TF Lite բջջային հեռախոսների համար, մեծ համայնք։
scikit-learn Աղյուսակային տվյալներ, բազային գծեր Անվճար Մաքուր API, արագ իտերացիա, հիանալի փաստաթղթեր։
Կերաս Արագ նախատիպեր Անվճար Բարձր մակարդակի API TF-ի վրա, ընթեռնելի շերտեր։
ՋԱՔՍ Հզոր օգտատերեր, հետազոտություն Անվճար Ավտոմատ վեկտորացում, XLA արագություն, էլեգանտ մաթեմատիկական մթնոլորտ։
Գրկախառնվող դեմքի տրանսֆորմերներ NLP, տեսողություն, աուդիո Անվճար Նախապես պատրաստված մոդելներ, պարզ նուրբ կարգավորում, հիանալի հանգույցներ։
Կայծակ Ուսուցման աշխատանքային հոսքեր Ազատ միջուկ Կառուցվածքը, գրանցումը, բազմաթիվ GPU մարտկոցները ներառված են։
XGBoost Աղյուսակային մրցակցային Անվճար Ուժեղ բազային գծեր, հաճախ հաղթանակներ կառուցվածքային տվյալների վրա։
Կշիռներ և թեքություններ Փորձի հետևում Ազատ մակարդակ Վերարտադրելիություն, համեմատական ​​​​վազքեր, ավելի արագ ուսուցման ցիկլեր։

Սկսելու համար հեղինակավոր փաստաթղթեր՝ PyTorch, TensorFlow և կոկիկ scikit-learn օգտագործողի ուղեցույցը։ (Ընտրեք մեկը, կառուցեք ինչ-որ փոքրիկ բան, կրկնեք):


Խորը ուսումնասիրություն. գործնական խորհուրդներ, որոնք կխնայեն ձեր իրական ժամանակը 🧭

  • Ուսուցման տեմպի գրաֆիկներ . կոսինուսային քայքայումը կամ մեկ ցիկլը կարող են կայունացնել ուսուցումը։

  • Փաթեթի չափս . մեծը միշտ չէ, որ ավելի լավ է. ուշադրություն դարձրեք վավերացման չափանիշներին, այլ ոչ թե միայն թողունակությանը։

  • Կշիռի սկզբնական արժեքներ . ժամանակակից լռելյայն արժեքները նորմալ են. եթե մարզումը կանգ է առնում, վերանայեք սկզբնականացումը կամ նորմալացրեք վաղ շերտերը։

  • Նորմալացում . խմբաքանակի նորմը կամ շերտի նորմը կարող են զգալիորեն հարթեցնել օպտիմալացումը։

  • Տվյալների լրացում . պատկերների համար շրջում/կտրում/գույնի տատանում, տեքստի համար՝ քողարկում/թոքենների խառնում։

  • Սխալների վերլուծություն . սխալները մեկ հատվածի եզրով խմբավորելը կարող է ամեն ինչ ներքև քաշել։

  • Վերարտադրություն . սահմանել սերմեր, գրանցել հիպերպարամետրեր, պահպանել ստուգիչ կետերը: Խոստանում եմ՝ ապագայում շնորհակալ կլինեք: [2], [3]

Երբ կասկածում եք, վերանայեք հիմունքները։ Կողմնացույցը մնում է հիմունքները։ [1], [2]


Փոքրիկ փոխաբերություն, որը գրեթե աշխատում է 🪴

Մոդելի մարզումը նման է բույսը տարօրինակ ծայրակալով ջրելուն։ Չափազանց շատ ջուր՝ ջրափոսը չափից շատ տեղավորելու համար։ Չափազանց քիչ երաշտ՝ չափից շատ տեղավորվելու համար։ Ճիշտ ռիթմը՝ լավ տվյալներից ստացված արևի լույսով և մաքուր օբյեկտիվներից ստացված սննդանյութերով, և դուք աճ եք ստանում։ Այո, մի փոքր անճաշակ է, բայց մնում է։


Ինչպե՞ս է արհեստական ​​բանականությունը սովորում։ Միավորելով ամեն ինչ միասին 🧾

Մոդելը սկսվում է պատահականորեն։ Գրադիենտային թարմացումների միջոցով, կորստով առաջնորդվելով, այն համապատասխանեցնում է իր պարամետրերը տվյալների մեջ առկա օրինաչափություններին։ Ի հայտ են գալիս ներկայացումներ, որոնք հեշտացնում են կանխատեսումը։ Գնահատումը ցույց է տալիս, թե արդյոք ուսուցումը իրական է, թե ոչ պատահական։ Եվ իտերացիան՝ անվտանգության համար պաշտպանիչ ցանկապատերի միջոցով, ցուցադրությունը վերածում է հուսալի համակարգի։ Սա է ամբողջ պատմությունը՝ ավելի քիչ խորհրդավոր տպավորություններով, քան սկզբում թվում էր։ [1]–[4]


Վերջնական դիտողություններ - չափազանց երկար, չկարդացի 🎁

  • Ինչպե՞ս է արհեստական ​​բանականությունը սովորում։ Նվազագույնի հասցնելով կորուստը գրադիենտների դեպքում բազմաթիվ օրինակների վրա։ [1], [2]

  • Լավ տվյալները, հստակ նպատակները և կայուն օպտիմալացումը նպաստում են ուսուցմանը։ [1]–[3]

  • Ընդհանրացումը միշտ գերազանցում է անգիր սովորելուն։ [1]

  • Անվտանգությունը, գնահատումը և կրկնությունը խելացի գաղափարները վերածում են հուսալի արդյունքների։ [3], [4]

  • Սկսեք պարզից, չափեք լավ և բարելավեք՝ շտկելով տվյալները, նախքան էկզոտիկ ճարտարապետությունների հետևից ընկնելը։ [2], [3]


Հղումներ

  1. Գուդֆելոու, Բենջիո, Կուրվիլ - Խորը ուսուցում (անվճար առցանց տեքստ): Հղում

  2. Սթենֆորդ CS231n - Տեսողական ճանաչման կոնվոլյուցիոն նեյրոնային ցանցեր (դասընթացի նշումներ և առաջադրանքներ): Հղում

  3. Google - Մեքենայական ուսուցման արագացված դասընթաց. Դասակարգման չափանիշներ (ճշգրտություն, ճշգրտություն, հետկանչ, ROC/AUC) : Հղում

  4. NIST - Արհեստական ​​​​ինտելեկտի ռիսկերի կառավարման շրջանակ (AI RMF 1.0) : Հղում

  5. OpenAI - Մարդկային նախասիրություններից սովորելը (նախասիրությունների վրա հիմնված ուսուցման ակնարկ): Հղում

Գտեք արհեստական ​​բանականության վերջին նորույթները պաշտոնական արհեստական ​​բանականության օգնականների խանութում

Մեր մասին

Վերադառնալ բլոգ