Ինչպե՞ս է արհեստական բանականությունը սովորում։ Այս ուղեցույցը պարզ լեզվով բացահայտում է հիմնական գաղափարները՝ օրինակներով, փոքրիկ շեղումներով և մի քանի անկատար փոխաբերություններով, որոնք դեռևս որոշ չափով օգնում են։ Եկեք սկսենք։ 🙂
Հոդվածներ, որոնք կարող են ձեզ դուր գալ կարդալ սրանից հետո.
🔗 Ի՞նչ է կանխատեսող արհեստական բանականությունը
Ինչպես են կանխատեսողական մոդելները կանխատեսում արդյունքները՝ օգտագործելով պատմական և իրական ժամանակի տվյալներ։
🔗 Ո՞ր ոլորտները կխաթարեն արհեստական բանականությունը
Ոլորտներ, որոնք, ամենայն հավանականությամբ, վերափոխվել են ավտոմատացման, վերլուծության և գործակալների կողմից։
🔗 Ի՞նչ է նշանակում GPT-ն
GPT հապավումի և ծագման հստակ բացատրություն։
🔗 Ի՞նչ են արհեստական բանականության հմտությունները
Արհեստական բանականության համակարգերի կառուցման, տեղակայման և կառավարման հիմնական կարողություններ։
Այսպիսով, ինչպե՞ս է դա արվում։ ✅
Երբ մարդիկ հարցնում են՝ ինչպե՞ս է արհեստական բանականությունը սովորում , նրանք սովորաբար նկատի ունեն՝ ինչպե՞ս են մոդելները դառնում օգտակար, այլ ոչ թե պարզապես գեղեցիկ մաթեմատիկական խաղալիքներ։ Պատասխանը բաղադրատոմս է.
-
Հստակ նպատակ ՝ կորստի ֆունկցիա, որը սահմանում է, թե ինչ է նշանակում «լավ»։ [1]
-
Որակյալ տվյալներ ՝ բազմազան, մաքուր և համապատասխան։ Քանակը օգնում է, բազմազանությունն՝ ավելի շատ։ [1]
-
Կայուն օպտիմալացում - գրադիենտային վայրէջք՝ ժայռից տատանվելուց խուսափելու հնարքներով։ [1], [2]
-
Ընդհանրացում ՝ հաջողություն նոր տվյալների վրա, այլ ոչ թե միայն մարզումների հավաքածուի վրա։ [1]
-
Հետադարձ կապի ցիկլեր - գնահատում, սխալների վերլուծություն և իտերացիա։ [2], [3]
-
Անվտանգություն և հուսալիություն ՝ պաշտպանիչ ցանկապատեր, փորձարկում և փաստաթղթավորում, որպեսզի քաոս չլինի։ [4]
Հասանելի հիմունքների համար դասական խորը ուսուցման տեքստը, տեսողականորեն հարմար դասընթացի նշումները և գործնական արագացված դասընթացը ներառում են հիմնականը՝ առանց ձեզ խեղդելու խորհրդանիշների մեջ։ [1]–[3]
Ինչպե՞ս է արհեստական բանականությունը սովորում։ Կարճ պատասխանը պարզ անգլերենով ✍️
Արհեստական բանականության մոդելը սկսվում է պատահական պարամետրերի արժեքներից։ Այն կանխատեսում է կատարում։ Դուք գնահատում եք այդ կանխատեսումը կորուստով ։ Այնուհետև դուք թեքում եք այդ պարամետրերը՝ կորուստը նվազեցնելու համար՝ օգտագործելով գրադիենտներ ։ Կրկնեք այս ցիկլը բազմաթիվ օրինակների վրա, մինչև մոդելը դադարի բարելավվել (կամ ձեր նախուտեստները վերջանան)։ Սա մարզման ցիկլն է մեկ շնչով։ [1], [2]
Եթե ցանկանում եք մի փոքր ավելի մեծ ճշգրտություն, տե՛ս ստորև գրադիենտային անկման և հետադարձ տարածման բաժինները: Արագ և հասկանալի տեղեկատվության համար լայնորեն հասանելի են կարճ դասախոսություններ և լաբորատոր աշխատանքներ: [2], [3]
Հիմունքներ՝ տվյալներ, նպատակներ, օպտիմալացում 🧩
-
Տվյալներ ՝ մուտքային տվյալներ (x) և թիրախային տվյալներ (y): Որքան լայն և մաքուր են տվյալները, այնքան մեծ է ընդհանրացման հավանականությունը: Տվյալների հավաքագրումը հմայիչ չէ, բայց այն չգովաբանված հերոս է: [1]
-
Մոդել ՝ ֆունկցիա (f_\theta(x))՝ պարամետրերով (\theta): Նեյրոնային ցանցերը պարզ միավորների կույտեր են, որոնք բարդ ձևերով համակցվում են՝ լեգո աղյուսներ, բայց ավելի փափուկ: [1]
-
Նպատակ ՝ Կորուստ (L(f_\theta(x), y)), որը չափում է սխալը։ Օրինակներ՝ միջին քառակուսային սխալ (ռեգրեսիա) և խաչաձև էնտրոպիա (դասակարգում)։ [1]
-
Օպտիմիզացիա . Պարամետրերը թարմացնելու համար օգտագործեք (ստոխաստիկ) գրադիենտային անկում. (\theta \leftarrow \theta - \eta \nabla_\theta L): Սովորելու տեմպը (\eta). չափազանց մեծ է, և դուք ցատկոտում եք, չափազանց փոքր է, և դուք հավերժ քնած եք: [2]
Կորստի ֆունկցիաների և օպտիմալացման մաքուր ներածության համար մարզման հնարքների և թակարդների վերաբերյալ դասական նշումները հիանալի ակնարկ են։ [2]
Վերահսկվող ուսուցում. սովորեք պիտակավորված օրինակներից 🎯
Միտք ՝ ցույց տալ մուտքագրման և ճիշտ պատասխանի մոդելային զույգերը։ Մոդելը սովորում է արտապատկերում (x \rightarrow y):
-
Հաճախակի առաջադրանքներ ՝ պատկերի դասակարգում, տրամադրության վերլուծություն, աղյուսակային կանխատեսում, խոսքի ճանաչում։
-
Տիպիկ կորուստներ ՝ խաչաձև էնտրոպիա դասակարգման համար, միջին քառակուսային սխալ ռեգրեսիայի համար։ [1]
-
Թակարդներ ՝ պիտակների աղմուկ, դասերի անհավասարակշռություն, տվյալների արտահոսք։
-
Ուղղումներ ՝ շերտավորված նմուշառում, կայուն կորուստներ, կանոնավորում և տվյալների ավելի բազմազան հավաքագրում։ [1], [2]
Տասնամյակների չափորոշիչների և արտադրական պրակտիկայի հիման վրա, վերահսկվող ուսուցումը մնում է աշխատանքի հիմնական ձին, քանի որ արդյունքները կանխատեսելի են, իսկ չափանիշները՝ պարզ։ [1], [3]
Անվերահսկելի և ինքնավերահսկվող ուսուցում. սովորեք տվյալների կառուցվածքը 🔍
Անհսկողությունը սովորում է օրինաչափություններ առանց պիտակների։
-
Կլաստերացում . նման կետերի խմբավորումը (k-միջինները) պարզ է և զարմանալիորեն օգտակար։
-
Չափսերի կրճատում . սեղմել տվյալները հիմնական ուղղություններով. PCA-ն դարպասային գործիք է։
-
Խտության/գեներատիվ մոդելավորում . ուսումնասիրեք տվյալների բաշխումն ինքնին։ [1]
Ինքնակառավարվողը ժամանակակից շարժիչն է. մոդելները ստեղծում են իրենց սեփական վերահսկողությունը (դիմակավորված կանխատեսում, համեմատական ուսուցում), թույլ տալով ձեզ նախնական մարզվել չպիտակավորված տվյալների օվկիանոսների վրա և հետագայում կատարելագործել դրանք։ [1]
Ուժեղացված ուսուցում. սովորել գործելով և հետադարձ կապ ստանալով 🕹️
Գործակալը միջավայրի հետ , ստանում պարգևներ և սովորում է մի քաղաքականություն , որը մաքսիմալացնում է երկարաժամկետ պարգևը։
-
Հիմնական մասեր ՝ վիճակ, գործողություն, պարգևատրում, քաղաքականություն, արժեքային ֆունկցիա։
-
Ալգորիթմներ ՝ Q-ուսուցում, քաղաքականության գրադիենտներ, դերասան-քննադատ։
-
Հետազոտություն ընդդեմ շահագործման . փորձեք նոր բաներ կամ վերօգտագործեք այն, ինչը աշխատում է։
-
Վարկերի վերագրում . որ գործողությունն ինչ արդյունքի հանգեցրեց։
Մարդկային հետադարձ կապը կարող է ուղղորդել ուսուցումը, երբ պարգևատրումները խառնաշփոթ են. դասակարգումը կամ նախընտրությունները օգնում են ձևավորել վարքագիծը՝ առանց ձեռքով կոդավորելու կատարյալ պարգևը: [5]
Խորը ուսուցում, հետադարձ շարժում և գրադիենտային անկում - բաբախող սիրտ 🫀
Նեյրոնային ցանցերը պարզ ֆունկցիաների կազմություններ են։ Սովորելու համար դրանք հիմնվում են հետադարձ տարածման ՝
-
Առաջ անցում . հաշվարկել կանխատեսումները մուտքային տվյալներից։
-
Կորուստ . չափել կանխատեսումների և նպատակների միջև եղած սխալը։
-
Հետադարձ անցում . կիրառեք շղթայի կանոնը՝ յուրաքանչյուր պարամետրի դիմաց կորստի գրադիենտները հաշվարկելու համար։
-
Թարմացում . օպտիմալացնողի միջոցով պարամետրերը տեղաշարժեք գրադիենտի դեմ։
Իմպուլսի, RMSProp-ի և Adam-ի նման տարբերակները մարզումը դարձնում են պակաս քմահաճ։ Կանոնավորացման մեթոդները, ինչպիսիք են դուրս մնալը , քաշի կորուստը և վաղ կանգառը, օգնում են մոդելներին ընդհանրացնել՝ անգիր սովորելու փոխարեն։ [1], [2]
Տրանսֆորմերներ և ուշադրություն. ինչու են ժամանակակից մոդելները խելացի թվում 🧠✨
Տրանսֆորմերները փոխարինեցին լեզվի և տեսողության բազմաթիվ կրկնվող կարգավորումները: Հիմնական հնարքը ինքնաուշադրությունն , որը թույլ է տալիս մոդելին կշռադատել իր մուտքային տվյալների տարբեր մասերը՝ կախված համատեքստից: Դիրքային կոդավորումները կարգավորում են կարգը, իսկ բազմագլուխ ուշադրությունը թույլ է տալիս մոդելին միաժամանակ կենտրոնանալ տարբեր հարաբերությունների վրա: Մասշտաբավորումը՝ ավելի բազմազան տվյալներ, ավելի շատ պարամետրեր, ավելի երկար ուսուցում, հաճախ օգնում է՝ նվազող եկամտաբերության և աճող ծախսերի պայմաններում: [1], [2]
Ընդհանրացում, գերհարմարեցում և կողմնակալության-վարիացիայի պարը 🩰
Մոդելը կարող է հաջողությամբ հաղթահարել մարզումների հավաքածուն և միևնույն ժամանակ ձախողվել իրական աշխարհում։
-
Գերհարմարեցում . հիշում է աղմուկը։ Մարզման սխալը նվազում է, թեստային սխալը մեծանում։
-
Թերհարմարեցում . չափազանց պարզ է, բաց է թողնում ազդանշանը։
-
Կողմնակալության և շեղման փոխզիջում . բարդությունը նվազեցնում է կողմնակալությունը, բայց կարող է մեծացնել շեղումը։
Ինչպես ավելի լավ ընդհանրացնել:
-
Ավելի բազմազան տվյալներ՝ տարբեր աղբյուրներ, տիրույթներ և սահմանային դեպքեր։
-
Կանոնավորացում - ուսումից դուրս մնալը, քաշի նվազումը, տվյալների ավելացումը։
-
Պատշաճ վավերացում՝ մաքուր թեստային հավաքածուներ, փոքր տվյալների խաչաձև վավերացում։
-
Մոնիթորինգի շեղում - ձեր տվյալների բաշխումը կփոխվի ժամանակի ընթացքում։
Ռիսկերի գիտակցմամբ զբաղվող պրակտիկան դրանք դիտարկում է որպես կյանքի ցիկլի գործողություններ՝ կառավարում, քարտեզագրում, չափում և կառավարում, այլ ոչ թե միանգամյա ստուգաթերթիկներ: [4]
Կարևոր չափանիշներ. ինչպես ենք իմանում, որ ուսուցումը տեղի է ունեցել 📈
-
Դասակարգում ՝ ճշգրտություն, ճշգրտություն, հետկանչ, F1, ROC AUC: Անհավասարակշիռ տվյալները պահանջում են ճշգրտության-հետկանչման կորեր: [3]
-
Ռեգրեսիա ՝ MSE, MAE, (R^2): [1]
-
Դասակարգում/վերականգնում ՝ MAP, NDCG, recall@K. [1]
-
Գեներատիվ մոդելներ ՝ շփոթվածություն (լեզու), BLEU/ROUGE/CIDEr (տեքստ), CLIP-ի վրա հիմնված գնահատականներ (մուլտիմոդալ) և, ամենակարևորը՝ մարդկային գնահատումներ: [1], [3]
Ընտրեք չափանիշներ, որոնք համապատասխանում են օգտագործողի ազդեցությանը: Ճշգրտության փոքր աճը կարող է անտեղի լինել, եթե կեղծ դրական արդյունքները իրական ծախսն են: [3]
Ուսուցման աշխատանքային հոսքը իրական աշխարհում. պարզ նախագիծ 🛠️
-
Սահմանեք խնդիրը ՝ սահմանելով մուտքային և ելքային տվյալները, սահմանափակումները և հաջողության չափանիշները։
-
Տվյալների հոսք - հավաքագրում, պիտակավորում, մաքրում, բաժանում, լրացում:
-
Հիմքային գիծ - սկսեք պարզից. գծային կամ ծառային բազային գծերը ցնցողորեն մրցունակ են։
-
Մոդելավորում ՝ փորձեք մի քանի ընտանիք՝ գրադիենտով ուժեղացված ծառեր (աղյուսակային), CNN-ներ (պատկերներ), տրանսֆորմատորներ (տեքստ):
-
Մարզում ՝ ժամանակացույց, ուսուցման տեմպի ռազմավարություններ, ստուգման կետեր, անհրաժեշտության դեպքում՝ խառը ճշգրտություն։
-
Գնահատում ՝ աբլյացիաներ և սխալների վերլուծություն։ Նայեք սխալներին, ոչ միայն միջինին։
-
Տեղակայում - եզրակացությունների մշակման խողովակաշար, մոնիթորինգ, գրանցում, հետկանչի պլան։
-
Իտերատ ՝ տվյալների ավելի լավ մշակում, նուրբ կարգավորում կամ ճարտարապետական շտկումներ։
Փոքր դեպք . էլեկտրոնային փոստի դասակարգչի նախագիծը սկսվեց պարզ գծային բազային գծից, այնուհետև մանրակրկիտ կարգավորվեց նախապես պատրաստված տրանսֆորմատորը: Ամենամեծ հաղթանակը մոդելը չէր, այլ պիտակավորման ռուբրիկայի խստացումը և թերներկայացված «եզր» կատեգորիաների ավելացումը: Երբ դրանք ներառվեցին, վավերացումը F1 վերջապես հետևեց իրական աշխարհի կատարողականին: (Ձեր ապագա եսը. շատ շնորհակալ եմ):
Տվյալների որակը, պիտակավորումը և ինքներդ ձեզ չխաբելու նուրբ արվեստը 🧼
Աղբը ներս, զղջումը դուրս։ Պիտակավորման ուղեցույցները պետք է լինեն հետևողական, չափելի և վերանայված։ Կարևոր է մեկնաբանողների միջև համաձայնությունը։
-
Գրեք ռուբրիկաներ օրինակներով, անկյունային դեպքերով և սահմանումներ կատարող նախադասություններով։
-
Աուդիտի տվյալների հավաքածուներ՝ կրկնօրինակների և գրեթե կրկնօրինակների համար։
-
Հետևեք ծագմանը. որտեղից է եկել յուրաքանչյուր օրինակը և ինչու է այն ներառված։
-
Չափեք տվյալների ծածկույթը իրական օգտատիրոջ սցենարների համեմատ, այլ ոչ թե պարզապես կոկիկ չափանիշի համեմատ։
Սրանք հիանալի կերպով տեղավորվում են ավելի լայն հավաստիացման և կառավարման շրջանակներում, որոնք դուք կարող եք իրականում կիրառել։ [4]
Փոխանցեք ուսուցումը, ճշգրտումը և ադապտերները՝ վերօգտագործեք ծանր աշխատանքը ♻️
Նախապես մարզված մոդելները սովորում են ընդհանուր ներկայացումներ, իսկ նուրբ կարգավորումը դրանք հարմարեցնում է ձեր խնդրին ավելի քիչ տվյալներով։
-
Հատկանիշների արդյունահանում . սառեցնել ողնաշարը, մարզել փոքր գլուխը։
-
Լրիվ նուրբ կարգավորում . թարմացրեք բոլոր պարամետրերը՝ առավելագույն հզորության համար։
-
Պարամետրերով արդյունավետ մեթոդներ ՝ ադապտերներ, LoRA ոճի ցածր կարգի թարմացումներ՝ լավ են, երբ հաշվարկը խիստ է։
-
Դոմեյնի հարմարեցում . դոմեյնների միջև ներդրված տվյալների համընկնում. փոքր փոփոխություններ, մեծ ձեռքբերումներ: [1], [2]
Այս վերօգտագործման օրինաչափությունն է պատճառը, որ ժամանակակից նախագծերը կարող են արագ ընթանալ առանց հերոսական բյուջեների։
Անվտանգություն, հուսալիություն և հավասարեցում՝ ոչ լրացուցիչ մասեր 🧯
Սովորելը միայն ճշգրտության մասին չէ։ Դուք նաև ցանկանում եք մոդելներ, որոնք հուսալի են, արդար և համապատասխանում են նախատեսված օգտագործմանը։
-
Հակառակորդական կայունություն . փոքր խանգարումները կարող են խաբել մոդելները։
-
Կողմնակալություն և արդարություն . չափեք ենթախմբի կատարողականը, այլ ոչ թե միայն ընդհանուր միջին ցուցանիշները։
-
Մեկնաբանելիություն . հատկանիշների վերագրումը և զոնդավորումը կօգնեն ձեզ հասկանալ, թե ինչու ։
-
Մարդը ցիկլում . երկիմաստ կամ բարձր ազդեցություն ունեցող որոշումների էսկալացիայի ուղիներ: [4], [5]
Նախընտրությունների վրա հիմնված ուսուցումը մարդկային դատողությունը ներառելու պրագմատիկ միջոցներից մեկն է, երբ նպատակները անորոշ են։ [5]
Հաճախակի տրվող հարցեր մեկ րոպեում՝ արագ արձագանք ⚡
-
Այսպիսով, իրականում, ինչպե՞ս է արհեստական բանականությունը սովորում: Կորստի դեմ իտերատիվ օպտիմալացման միջոցով, որտեղ գրադիենտները ուղղորդում են պարամետրերը դեպի ավելի լավ կանխատեսումներ: [1], [2]
-
Ավելի շատ տվյալները միշտ օգնո՞ւմ են։ Սովորաբար, մինչև նվազող եկամուտները։ Բազմազանությունը հաճախ գերազանցում է հում ծավալին։ [1]
-
Ի՞նչ անել, եթե պիտակները խառնաշփոթ են։ Օգտագործեք աղմուկից պաշտպանված մեթոդներ, ավելի լավ չափանիշներ և մտածեք ինքնուրույն վերահսկվող նախնական ուսուցման մասին։ [1]
-
Ինչո՞ւ են տրանսֆորմատորները գերիշխում։ Ուշադրությունը լավ է մասշտաբավորվում և արտացոլում է երկարաժամկետ կախվածությունները. գործիքավորումը հասուն է։ [1], [2]
-
Ինչպե՞ս իմանամ, որ ավարտել եմ մարզումը։ Հաստատման կորստի մակարդակը կայունանում է, չափանիշները կայունանում են, և նոր տվյալները գործում են սպասվածի պես, այնուհետև վերահսկում են շեղումները։ [3], [4]
Համեմատական աղյուսակ - գործիքներ, որոնք իրականում կարող եք օգտագործել այսօր 🧰
Միտումնավոր մի փոքր տարօրինակ է։ Գները վերաբերում են հիմնական գրադարաններին. մասշտաբային ուսուցումը, իհարկե, ունի ենթակառուցվածքային ծախսեր։
| Գործիք | Լավագույնը | Գինը | Ինչու է այն լավ աշխատում |
|---|---|---|---|
| PyTorch | Հետազոտողներ, շինարարներ | Անվճար - բաց src | Դինամիկ գրաֆիկներ, ուժեղ էկոհամակարգ, հիանալի ձեռնարկներ։ |
| TensorFlow | Արտադրական թիմեր | Անվճար - բաց src | Հասունների սպասարկում, TF Lite բջջային հեռախոսների համար, մեծ համայնք։ |
| scikit-learn | Աղյուսակային տվյալներ, բազային գծեր | Անվճար | Մաքուր API, արագ իտերացիա, հիանալի փաստաթղթեր։ |
| Կերաս | Արագ նախատիպեր | Անվճար | Բարձր մակարդակի API TF-ի վրա, ընթեռնելի շերտեր։ |
| ՋԱՔՍ | Հզոր օգտատերեր, հետազոտություն | Անվճար | Ավտոմատ վեկտորացում, XLA արագություն, էլեգանտ մաթեմատիկական մթնոլորտ։ |
| Գրկախառնվող դեմքի տրանսֆորմերներ | NLP, տեսողություն, աուդիո | Անվճար | Նախապես պատրաստված մոդելներ, պարզ նուրբ կարգավորում, հիանալի հանգույցներ։ |
| Կայծակ | Ուսուցման աշխատանքային հոսքեր | Ազատ միջուկ | Կառուցվածքը, գրանցումը, բազմաթիվ GPU մարտկոցները ներառված են։ |
| XGBoost | Աղյուսակային մրցակցային | Անվճար | Ուժեղ բազային գծեր, հաճախ հաղթանակներ կառուցվածքային տվյալների վրա։ |
| Կշիռներ և թեքություններ | Փորձի հետևում | Ազատ մակարդակ | Վերարտադրելիություն, համեմատական վազքեր, ավելի արագ ուսուցման ցիկլեր։ |
Սկսելու համար հեղինակավոր փաստաթղթեր՝ PyTorch, TensorFlow և կոկիկ scikit-learn օգտագործողի ուղեցույցը։ (Ընտրեք մեկը, կառուցեք ինչ-որ փոքրիկ բան, կրկնեք):
Խորը ուսումնասիրություն. գործնական խորհուրդներ, որոնք կխնայեն ձեր իրական ժամանակը 🧭
-
Ուսուցման տեմպի գրաֆիկներ . կոսինուսային քայքայումը կամ մեկ ցիկլը կարող են կայունացնել ուսուցումը։
-
Փաթեթի չափս . մեծը միշտ չէ, որ ավելի լավ է. ուշադրություն դարձրեք վավերացման չափանիշներին, այլ ոչ թե միայն թողունակությանը։
-
Կշիռի սկզբնական արժեքներ . ժամանակակից լռելյայն արժեքները նորմալ են. եթե մարզումը կանգ է առնում, վերանայեք սկզբնականացումը կամ նորմալացրեք վաղ շերտերը։
-
Նորմալացում . խմբաքանակի նորմը կամ շերտի նորմը կարող են զգալիորեն հարթեցնել օպտիմալացումը։
-
Տվյալների լրացում . պատկերների համար շրջում/կտրում/գույնի տատանում, տեքստի համար՝ քողարկում/թոքենների խառնում։
-
Սխալների վերլուծություն . սխալները մեկ հատվածի եզրով խմբավորելը կարող է ամեն ինչ ներքև քաշել։
-
Վերարտադրություն . սահմանել սերմեր, գրանցել հիպերպարամետրեր, պահպանել ստուգիչ կետերը: Խոստանում եմ՝ ապագայում շնորհակալ կլինեք: [2], [3]
Երբ կասկածում եք, վերանայեք հիմունքները։ Կողմնացույցը մնում է հիմունքները։ [1], [2]
Փոքրիկ փոխաբերություն, որը գրեթե աշխատում է 🪴
Մոդելի մարզումը նման է բույսը տարօրինակ ծայրակալով ջրելուն։ Չափազանց շատ ջուր՝ ջրափոսը չափից շատ տեղավորելու համար։ Չափազանց քիչ երաշտ՝ չափից շատ տեղավորվելու համար։ Ճիշտ ռիթմը՝ լավ տվյալներից ստացված արևի լույսով և մաքուր օբյեկտիվներից ստացված սննդանյութերով, և դուք աճ եք ստանում։ Այո, մի փոքր անճաշակ է, բայց մնում է։
Ինչպե՞ս է արհեստական բանականությունը սովորում։ Միավորելով ամեն ինչ միասին 🧾
Մոդելը սկսվում է պատահականորեն։ Գրադիենտային թարմացումների միջոցով, կորստով առաջնորդվելով, այն համապատասխանեցնում է իր պարամետրերը տվյալների մեջ առկա օրինաչափություններին։ Ի հայտ են գալիս ներկայացումներ, որոնք հեշտացնում են կանխատեսումը։ Գնահատումը ցույց է տալիս, թե արդյոք ուսուցումը իրական է, թե ոչ պատահական։ Եվ իտերացիան՝ անվտանգության համար պաշտպանիչ ցանկապատերի միջոցով, ցուցադրությունը վերածում է հուսալի համակարգի։ Սա է ամբողջ պատմությունը՝ ավելի քիչ խորհրդավոր տպավորություններով, քան սկզբում թվում էր։ [1]–[4]
Վերջնական դիտողություններ - չափազանց երկար, չկարդացի 🎁
-
Ինչպե՞ս է արհեստական բանականությունը սովորում։ Նվազագույնի հասցնելով կորուստը գրադիենտների դեպքում բազմաթիվ օրինակների վրա։ [1], [2]
-
Լավ տվյալները, հստակ նպատակները և կայուն օպտիմալացումը նպաստում են ուսուցմանը։ [1]–[3]
-
Ընդհանրացումը միշտ գերազանցում է անգիր սովորելուն։ [1]
-
Անվտանգությունը, գնահատումը և կրկնությունը խելացի գաղափարները վերածում են հուսալի արդյունքների։ [3], [4]
-
Սկսեք պարզից, չափեք լավ և բարելավեք՝ շտկելով տվյալները, նախքան էկզոտիկ ճարտարապետությունների հետևից ընկնելը։ [2], [3]
Հղումներ
-
Գուդֆելոու, Բենջիո, Կուրվիլ - Խորը ուսուցում (անվճար առցանց տեքստ): Հղում
-
Սթենֆորդ CS231n - Տեսողական ճանաչման կոնվոլյուցիոն նեյրոնային ցանցեր (դասընթացի նշումներ և առաջադրանքներ): Հղում
-
Google - Մեքենայական ուսուցման արագացված դասընթաց. Դասակարգման չափանիշներ (ճշգրտություն, ճշգրտություն, հետկանչ, ROC/AUC) : Հղում
-
NIST - Արհեստական ինտելեկտի ռիսկերի կառավարման շրջանակ (AI RMF 1.0) : Հղում
-
OpenAI - Մարդկային նախասիրություններից սովորելը (նախասիրությունների վրա հիմնված ուսուցման ակնարկ): Հղում