Արհեստական բանականության մոդելի ստեղծումը հնչում է դրամատիկ՝ ինչպես ֆիլմի մեջ գիտնականը, որը մրմնջում է եզակիությունների մասին, մինչև որ դուք իրականում դա անում եք մեկ անգամ։ Հետո հասկանում եք, որ դա կիսով չափ տվյալների մաքրման աշխատանք է, կիսով չափ՝ անհարմար ջրմուղագործություն և տարօրինակ կախվածություն առաջացնող։ Այս ուղեցույցը ներկայացնում է, թե ինչպես ստեղծել արհեստական բանականության մոդել ՝ տվյալների նախապատրաստում, վերապատրաստում, փորձարկում, տեղակայում և, այո, ձանձրալի, բայց կարևոր անվտանգության ստուգումներ։ Մենք կօգտագործենք ոչ պաշտոնական տոն, կխորը մանրամասնություններ և կպահպանենք էմոջիները, որովհետև, անկեղծ ասած, ինչո՞ւ պետք է տեխնիկական գրելը հարկերի վճարման նման լինի։
Հոդվածներ, որոնք կարող են ձեզ դուր գալ կարդալ սրանից հետո.
🔗 Ի՞նչ է արհեստական բանականության արբիտրաժը. այս տարածված բառի հետևում կանգնած ճշմարտությունը
Բացատրում է արհեստական բանականության արբիտրաժը, դրա ռիսկերը, հնարավորությունները և իրական աշխարհի հետևանքները։
🔗 Ի՞նչ է արհեստական բանականության մարզիչը
Ներառում է արհեստական բանականության մարզչի դերը, հմտությունները և պարտականությունները։
🔗 Ի՞նչ է խորհրդանշական արհեստական բանականությունը. Ամեն ինչ, ինչ դուք պետք է իմանաք
Բեկործում է խորհրդանշական արհեստական բանականության հասկացությունները, պատմությունը և գործնական կիրառությունները։
Ինչն է կազմում արհեստական բանականության մոդելը - Հիմունքներ ✅
«Լավ» մոդելը այն չէ, որը պարզապես 99% ճշգրտությամբ է աշխատում ձեր մշակողի նոթատետրում և հետո անհարմար դրության մեջ է դնում ձեզ արտադրության մեջ։ Այն այն մոդելն է, որը.
-
Լավ ձևակերպված → խնդիրը հստակ է, մուտքային/ելքային տվյալները ակնհայտ են, չափանիշը համաձայնեցված է։
-
Տվյալների նկատմամբ ազնիվ → տվյալների բազմությունը իրականում արտացոլում է խառնաշփոթ իրական աշխարհը, այլ ոչ թե ֆիլտրացված երազանքի տարբերակը։ Բաշխումը հայտնի է, արտահոսքը փակ է, պիտակները հետևելի են։
-
Հուսալի → մոդելը չի փլուզվում, եթե սյուների կարգը փոխվում է կամ մուտքային տվյալները փոքր-ինչ շեղվում են։
-
Գնահատվում է իմաստով → չափանիշներ, որոնք համապատասխանում են իրականությանը, այլ ոչ թե առաջատարների ցանկի սնապարծությանը։ ROC AUC-ն հիանալի տեսք ունի, բայց երբեմն բիզնեսին հետաքրքրում է F1-ը կամ կալիբրացումը։
-
Տեղակայելի → կանխատեսելի եզրակացության ժամանակ, բավարար ռեսուրսներ, ներառված է տեղակայումից հետո մոնիթորինգ։
-
Պատասխանատու → արդարության թեստեր, մեկնաբանելիություն, չարաշահման դեմ պաշտպանիչ ցանկապատեր [1]:
Սեղմիր սրանք, և դու արդեն գրեթե պատրաստ ես։ Մնացածը պարզապես կրկնություն է… և մի փոքր «ներքին զգացողություն»։ 🙂
Փոքր պատերազմի պատմություն. խարդախության մոդելի դեպքում, ընդհանուր առմամբ, F1-ը հիանալի տեսք ուներ։ Այնուհետև մենք բաժանվեցինք աշխարհագրության + «քարտի առկայություն vs. բացակայություն» սկզբունքով։ Անակնկալ. կեղծ բացասական արդյունքները կտրուկ աճեցին մեկ հատվածում։ Դասը քաղվեց. կտրեք վաղ, կտրեք հաճախ։
Արագ մեկնարկ. արհեստական բանականության մոդել ստեղծելու ամենակարճ ճանապարհը ⏱️
-
Սահմանեք խնդիրը ՝ դասակարգում, ռեգրեսիա, վարկանիշավորում, հաջորդականության պիտակավորում, գեներացիա, առաջարկություն:
-
Տվյալների հավաքագրում . հավաքագրում, կրկնօրինակում, ճիշտ բաժանում (ժամանակ/միավոր), փաստաթղթավորում [1]:
-
Ելակետային գիծ . միշտ սկսեք փոքրից՝ լոգիստիկ ռեգրեսիա, փոքրիկ ծառ [3]:
-
Ընտրեք մոդելային ընտանիք ՝ աղյուսակային → գրադիենտային ուժեղացում; տեքստային → փոքր տրանսֆորմատոր; տեսողություն → նախապես պատրաստված CNN կամ մայրուղի [3][5]:
-
Մարզման ցիկլ ՝ օպտիմիզատոր + վաղաժամկետ կանգառ; հետևեք ինչպես կորստին, այնպես էլ վավերացմանը [4]:
-
Գնահատում ՝ խաչաձև վավերացում, սխալների վերլուծություն, հերթափոխով թեստավորում։
-
Փաթեթ . պահպանել կշիռները, նախնական պրոցեսորները, API փաթաթանը [2]:
-
Մոնիտոր . ժամացույցի շեղում, լատենտություն, ճշգրտության անկում [2]:
Թղթի վրա այն կոկիկ տեսք ունի։ Գործնականում՝ անկարգ։ Եվ դա նորմալ է։
Համեմատական աղյուսակ. գործիքներ՝ արհեստական ինտելեկտի մոդել ստեղծելու համար 🛠️
| Գործիք / Գրադարան | Լավագույնը | Գինը | Ինչու է այն աշխատում (նշումներ) |
|---|---|---|---|
| scikit-learn | Աղյուսակային, բազային գծեր | Անվճար - OSS | Մաքուր API, արագ փորձարկումներ, դեռևս հաղթում է դասականներում [3]: |
| PyTorch | Խորը ուսուցում | Անվճար - OSS | Դինամիկ, ընթեռնելի, հսկայական համայնք [4]: |
| TensorFlow + Keras | Արտադրական DL | Անվճար - OSS | Կերասի համար հարմար; TF սպասարկումը հարթեցնում է տեղակայումը։ |
| JAX + Flax | Հետազոտություն + արագություն | Անվճար - OSS | Ավտոմատ տարբերություն + XLA = արդյունավետության բարձրացում։ |
| Գրկախառնվող դեմքի տրանսֆորմերներ | NLP, CV, աուդիո | Անվճար - OSS | Նախապես պատրաստված մոդելներ + խողովակաշարեր... խոհարարի համբույր [5]: |
| XGBoost/LightGBM | Աղյուսակային գերիշխանություն | Անվճար - OSS | Հաճախ գերազանցում է DL-ին համեստ տվյալների հավաքածուներում։ |
| Արագ արհեստական բանականություն | Բարեկամական DL | Անվճար - OSS | Բարձր մակարդակի, ներողամիտ լռելյայն պարտավորություններ։ |
| Cloud AutoML (տարբեր) | Ոչ/ցածր կոդ | Օգտագործման վրա հիմնված $ | Քաշել, գցել, տեղակայել. զարմանալիորեն հուսալի։ |
| ONNX-ի աշխատանքային ժամանակ | Եզրակացության արագություն | Անվճար - OSS | Օպտիմալացված սպասարկում, եզրերին հարմար։ |
Փաստաթղթեր, որոնք դուք շարունակաբար կբացեք՝ scikit-learn [3], PyTorch [4], Hugging Face [5]:
Քայլ 1 - Խնդիրը ձևակերպեք գիտնականի, այլ ոչ թե հերոսի պես 🎯
Կոդ գրելուց առաջ բարձրաձայն ասեք հետևյալը. ի՞նչ որոշում կկայացնի այս մոդելը։ Եթե դա անորոշ է, տվյալների բազմությունն ավելի վատը կլինի։
-
Կանխատեսման նպատակ → մեկ սյունակ, մեկ սահմանում: Օրինակ՝ արտահոսք 30 օրվա ընթացքում:
-
Հատվածայնություն → մեկ օգտատիրոջ, մեկ սեսիայի, մեկ տարրի համար՝ մի խառնեք։ Արտահոսքի ռիսկը կտրուկ աճում է։
-
Սահմանափակումներ → լատենտություն, հիշողություն, գաղտնիություն, եզր vs սերվեր։
-
Հաջողության չափանիշ → մեկ հիմնական + մի քանի պահակներ։ Անհավասարակշիռ դասեր՞։ Օգտագործեք AUPRC + F1։ Ռեգրեսիա՞։ MAE-ն կարող է գերազանցել RMSE-ին, երբ միջնարժեքները կարևոր են։
Հուշում մարտից. Գրեք այս սահմանափակումները + չափանիշը README-ի առաջին էջում: Պահպանում է ապագա արգումենտները, երբ կատարողականությունն ու լատենտությունը բախվում են:
Քայլ 2 - Տվյալների հավաքագրում, մաքրում և բաժանումներ, որոնք իրականում դիմացկուն են 🧹📦
Տվյալները մոդելն են։ Դուք դա գիտեք։ Այնուամենայնիվ, թերությունները.
-
Ծագում → որտեղից է այն եկել, ում է այն պատկանում, ինչ ապահովագրական պայմանագրով [1]:
-
Պիտակներ → խիստ ուղեցույցներ, մեկնաբանությունների միջև ստուգումներ, աուդիտներ։
-
Կրկնօրինակների վերացում → խորամանկ կրկնօրինակները մեծացնում են չափանիշները։
-
Բաժանումներ → պատահականությունը միշտ չէ, որ ճիշտ է: Կանխատեսման համար օգտագործեք ժամանակի վրա հիմնված, իսկ օգտատիրոջ կողմից տեղեկատվության արտահոսքից խուսափելու համար՝ էնթիվի վրա հիմնված:
-
Արտահոսք → մարզման ժամանակ ապագային նայելու հնարավորություն չկա։
-
Փաստաթղթեր → գրել արագ տվյալների քարտ ՝ սխեմայով, հավաքածուով, շեղումներով [1]:
Ծիսակատարություն. պատկերացրեք թիրախի բաշխումը + վերին հատկանիշները: Նաև պահեք «անհպում» թեստի հավաքածուն մինչև վերջնականը:
Քայլ 3 - Նախ՝ բազային գծերը. համեստ մոդել, որը խնայում է ամիսներ 🧪
Հիմքերը հմայիչ չեն, բայց դրանք հիմք են հանդիսանում սպասումների համար։
-
Աղյուսակային → scikit-learn LogisticRegression կամ RandomForest, ապա XGBoost/LightGBM [3]:
-
Տեքստ → TF-IDF + գծային դասակարգիչ։ Առողջության ստուգում տրանսֆորմատորներից առաջ։
-
Տեսողություն → փոքրիկ CNN կամ նախապես մարզված ողնաշար, սառեցված շերտեր։
Եթե ձեր խորը ցանցը հազիվ է գերազանցում բազային գիծը, շունչ քաշեք։ Երբեմն ազդանշանը պարզապես ուժեղ չէ։
Քայլ 4 - Ընտրեք տվյալներին համապատասխանող մոդելավորման մոտեցում 🍱
Աղյուսակային
Գրադիենտի ուժեղացումն առաջին հերթին՝ խիստ արդյունավետ։ Հատկանիշների ինժեներիան (փոխազդեցությունները, կոդավորումները) դեռևս կարևոր է։
Տեքստ
Նախապես պատրաստված տրանսֆորմատորներ՝ թեթև նուրբ կարգաբերմամբ: Թորած մոդել, եթե լատենտությունը կարևոր է [5]: Տոկենիզատորները նույնպես կարևոր են: Արագ հաղթանակների համար՝ HF խողովակաշարեր:
Պատկերներ
Սկսեք նախապես մարզված ողնաշարից + գլխիկի նուրբ կարգավորումից: Իրատեսորեն մեծացրեք (շրջումներ, կտրվածքներ, տատանումներ): Փոքր տվյալների համար՝ քիչ կրակոցներով կամ գծային զոնդեր:
Ժամանակային շարքեր
Հիմքեր՝ լագերի հատկանիշներ, շարժական միջիններ: Հին դպրոցի ARIMA-ն ընդդեմ ժամանակակից ուժեղացված ծառերի: Հաստատման ժամանակ միշտ հաշվի առեք ժամանակային կարգը:
Հիմնական կանոն՝ փոքր, կայուն մոդել > գերֆիզիկապես պատրաստված հրեշ։
Քայլ 5 - Մարզման ցիկլ, բայց մի՛ չափազանցեք բարդացնելը 🔁
Ձեզ անհրաժեշտ է միայն՝ տվյալների բեռնիչ, մոդել, կորստի ծրագիր, օպտիմալացուցիչ, ժամանակացույց, գրանցում։ Կատարված է։
-
Օպտիմալացնողներ ՝ Adam կամ SGD իմպուլսով։ Չափից շատ մի՛ փոփոխեք։
-
Փաթեթի չափս . առավելագույնի հասցնել սարքի հիշողությունը առանց ծանրաբեռնվածության։
-
Կանոնավորացում ՝ դասերից դուրս մնալը, քաշի նվազումը, վաղաժամ դադարեցումը։
-
Խառը ճշգրտություն . արագության հսկայական աճ. ժամանակակից շրջանակները դա հեշտացնում են [4]:
-
Վերարտադրելիություն ՝ սերմերը դնում են։ Այն դեռ կշարունակի շարժվել։ Դա նորմալ է։
Կանոնիկ օրինաչափությունների համար տե՛ս PyTorch-ի ձեռնարկները [4]:
Քայլ 6 - Գնահատում, որը արտացոլում է իրականությունը, այլ ոչ թե առաջատարների աղյուսակի միավորները 🧭
Ստուգեք կտորները, ոչ միայն միջինները։
-
Կալիբրացիա → հավանականությունները պետք է ինչ-որ բան նշանակեն։ Հուսալիության գրաֆիկները օգնում են։
-
Շփոթության պատկերացումներ → շեմային կորեր, տեսանելի փոխզիջումներ։
-
Սխալների ցանկեր → բաժանված ըստ տարածաշրջանի, սարքի, լեզվի, ժամանակի։ Գտեք թույլ կողմերը։
-
Հաստատունություն → փորձարկում տեղաշարժերի, խանգարող մուտքերի դեպքում։
-
Մարդկային ցիկլ → եթե մարդիկ օգտագործում են այն, փորձարկեք օգտագործելիությունը։
Կարճ պատմություն. մեկ անկում պայմանավորված էր ուսուցման և արտադրության միջև Unicode-ի նորմալացման անհամապատասխանությամբ։ Արժե՞ք։ 4 լրիվ միավոր։
Քայլ 7 - Փաթեթավորում, մատուցում և MLOps առանց արցունքների 🚚
Ահա թե որտեղ են նախագծերը հաճախ խափանվում։
-
Արտեֆակտներ ՝ մոդելի կշիռներ, նախամշակիչներ, «քոմիտ» հեշ։
-
Env : pin տարբերակներ, կոնտեյներիզացնել նիհար։
-
Ինտերֆեյս ՝ REST/gRPC
/health+/predict։ -
Լատենտություն/արտադրողականություն . խմբաքանակի հարցումներ, տաքացման մոդելներ։
-
Սարքավորումներ . Դասական տարբերակների համար պրոցեսորը հարմար է, իսկ DL տարբերակների համար՝ գրաֆիկական պրոցեսորները։ ONNX Runtime-ը բարձրացնում է արագությունը/փոխադրելիությունը։
Ամբողջական փաթեթի համար (CI/CD/CT, մոնիթորինգ, հետադարձ կապ) Google-ի MLOps փաստաթղթերը ամուր են [2]:
Քայլ 8 - Մոնիթորինգ, շեղում և վերավարժանք առանց խուճապի 📈🧭
Մոդելները քայքայվում են։ Օգտատերերը զարգանում են։ Տվյալների փոխանցման խողովակները վատ են գործում։
-
Տվյալների ստուգումներ ՝ սխեմա, միջակայքեր, զրոյական արժեքներ։
-
Կանխատեսումներ ՝ բաշխումներ, դրեյֆային չափանիշներ, արտառոց ցուցանիշներ։
-
Արդյունավետություն . պիտակները ստանալուց հետո հաշվարկեք չափանիշները։
-
Զգուշացումներ ՝ լատենտություն, սխալներ, շեղում։
-
Վերապատրաստել կադենսը . ձգան-հիմնված > օրացույց-հիմնված։
Փաստաթղթավորեք ցիկլը։ Վիքին գերազանցում է «ցեղային հիշողությանը»։ Տես Google CT playbooks [2]:
Պատասխանատու արհեստական բանականություն. արդարություն, գաղտնիություն, մեկնաբանելիություն 🧩🧠
Եթե մարդիկ տուժում են, պատասխանատվությունը կամավոր չէ։
-
Արդարության թեստեր → գնահատել զգայուն խմբերի միջև, մեղմացնել բացթողումները [1]:
-
Մեկնաբանելիություն → SHAP՝ աղյուսակայինի համար, վերագրում՝ խորըի համար։ Զգուշորեն վարվեք։
-
Գաղտնիություն/անվտանգություն → նվազագույնի հասցնել անձնական տեղեկությունները, անանունացնել, արգելափակել գործառույթները։
-
Քաղաքականություն → գրեք նախատեսված և արգելված օգտագործումները։ Խուսափում է հետագա ցավից [1]:
Կարճ մինի-ուղեցույց 🧑🍳
Ենթադրենք, որ մենք դասակարգում ենք ակնարկները՝ դրական ընդդեմ բացասականի։
-
Տվյալներ → հավաքել ակնարկներ, կրկնօրինակել, բաժանել ժամանակի ընթացքում [1]:
-
Բազային → TF-IDF + լոգիստիկ ռեգրեսիա (scikit-learn) [3]:
-
Թարմացում → փոքր նախապես պատրաստված տրանսֆորմատոր՝ գրկող դեմքով [5]:
-
Գնացք → մի քանի դարաշրջան, վաղ կանգառ, F1 գիծ [4]:
-
Գնահատում → շփոթության մատրից, ճշգրտություն@հիշողություն, կալիբրացիա։
-
Փաթեթ → տոկենիզատոր + մոդել, FastAPI փաթաթան [2]:
-
Մոնիտոր → դիտել կատեգորիաների միջև շեղումը [2]:
-
Պատասխանատու փոփոխություններ → ֆիլտրել անձնական տվյալները, հարգել զգայուն տվյալները [1]:
Սեղմ լատենտություն՞։ Մոդելի զտում, թե՞ ONNX արտահանում։
Տարածված սխալներ, որոնք մոդելներին խելացի տեսք են հաղորդում, բայց հիմարություն են անում 🙃
-
Արտահոսող առանձնահատկություններ (գնացքում իրադարձությունից հետո տվյալներ):
-
Սխալ չափանիշ (AUC, երբ թիմը հոգ է տանում հետկանչի մասին):
-
Փոքրիկ արժեքների հավաքածու (աղմկոտ «առաջխաղացումներ»):
-
Դասակարգային անհավասարակշռությունը անտեսվում է.
-
Անհամապատասխան նախնական մշակում (մարզում vs սպասարկում):
-
Շատ շուտ չափազանց անհատականացում.
-
Սահմանափակումների մոռացում (հսկայական մոդել բջջային հավելվածում):
Օպտիմալացման հնարքներ 🔧
-
Ավելացրեք ավելի խելացի տվյալներ՝ կոշտ բացասական թվեր, իրատեսական լրացումներ։
-
Ավելի դժվար է կանոնավորել՝ դուրս մնացած, ավելի փոքր մոդելներ։
-
Ուսուցման տեմպի գրաֆիկներ (կոսինուս/քայլ):
-
Խմբաքանակային մաքրումներ. ավելի մեծը միշտ չէ, որ ավելի լավ է։
-
Խառը ճշգրտություն + վեկտորացում արագության համար [4]:
-
Քվանտացում, կրճատում դեպի բարակ մոդելներ։
-
Քեշի ներկառուցումներ/նախահաշվարկային ծանր գործողություններ։
Տվյալների պիտակավորում, որը չի պայթում 🏷️
-
Ուղեցույցներ՝ մանրամասն, եզրագծով։
-
Գնացքի պիտակավորողներ. տրամաչափման առաջադրանքներ, համաձայնեցման ստուգումներ։
-
Որակ՝ ոսկեզօծ հավաքածուներ, ակնթարթային ստուգումներ։
-
Գործիքներ՝ տարբերակված տվյալների հավաքածուներ, արտահանելի սխեմաներ։
-
Էթիկա. արդար վարձատրություն, պատասխանատու մատակարարում: Կետ [1]:
Տեղակայման ձևեր 🚀
-
Խմբաքանակի հաշվարկ → գիշերային աշխատանքներ, պահեստ։
-
Իրական ժամանակի միկրոսպասարկում → համաժամեցման API, քեշավորման ավելացում։
-
Հոսքային հեռարձակում → իրադարձություններով պայմանավորված, օրինակ՝ խարդախություն։
-
Եզր → սեղմում, փորձարկման սարքեր, ONNX/TensorRT։
Պահպանեք runbook. հետադարձման քայլեր, արտեֆակտների վերականգնում [2]:
Ձեր ժամանակին արժանի ռեսուրսներ 📚
-
Հիմունքներ. scikit-learn օգտագործողի ուղեցույց [3]
-
DL ձևանմուշներ. PyTorch-ի ձեռնարկներ [4]
-
Փոխանցել ուսուցումը. Գրկախառնված դեմք արագ մեկնարկ [5]
-
Կառավարում/ռիսկ. NIST AI RMF [1]
-
MLOps: Google Cloud-ի ձեռնարկներ [2]
Հաճախակի տրվող հարցերի նման մանրուքներ 💡
-
Գրաֆիկական պրոցեսոր է պետք՞։ Tabular-ի համար չէ։ DL-ի համար՝ այո (ամպային վարձակալությունը գործում է)։
-
Բավականաչափ տվյալներ՞։ Ավելի շատ տվյալներ բավարար են, մինչև պիտակները աղմուկ չբարձրանան։ Սկսեք փոքրից, կրկնեք։
-
Չափանիշի ընտրություն։ Համապատասխան որոշման արժեքը։ Գրեք մատրիցը։
-
Բաց թողնե՞լ սկզբնական գիծը։ Դուք կարող եք… նույն կերպ, ինչպես կարող եք բաց թողնել նախաճաշը և զղջալ դրա համար։
-
AutoML՞։ Հիանալի է բութսթրեփինգի համար։ Այնուամենայնիվ, կատարեք ձեր սեփական աուդիտները [2]:
Մի փոքր խառնաշփոթ ճշմարտություն 🎬
Արհեստական բանականության մոդելի ստեղծման գործընթացը պակաս էկզոտիկ մաթեմատիկայի մասին է, ավելի շատ՝ արհեստագործության. հստակ շրջանակում, մաքուր տվյալներ, բազային հավասարակշռության ստուգումներ, հուսալի գնահատում, կրկնվող իտերացիա: Ավելացրեք պատասխանատվություն, որպեսզի ապագան չմաքրի կանխարգելելի խառնաշփոթներ [1][2]:
Իրականում «ձանձրալի» տարբերակը՝ զգույշ և մեթոդական, հաճախ գերազանցում է ուրբաթ օրը ժամը 2-ին շտապող աչքի ընկնող մոդելին։ Իսկ եթե առաջին փորձը անհարմար է թվում։ Դա նորմալ է։ Մոդելները նման են թթխմորով նախուտեստների. կերակրեք, դիտարկեք, երբեմն վերսկսեք։ 🥖🤷
TL;DR
-
Շրջանակի խնդիր + մետրիկա; վերացնել արտահոսքը։
-
Հիմքը նախ. պարզ գործիքները հիանալի են։
-
Նախապես պատրաստված մոդելները օգնում են՝ մի՛ երկրպագեք նրանց։
-
Գնահատել հատվածների միջև, չափաբերել։
-
MLOps-ի հիմունքներ՝ տարբերակների կառավարում, մոնիթորինգ, հետադարձ ծրագրեր։
-
Պատասխանատու արհեստական բանականություն՝ ներկառուցված, այլ ոչ թե պտուտակված։
-
Կրկնեք, ժպտացեք՝ դուք կառուցել եք արհեստական բանականության մոդել։ 😄
Հղումներ
-
NIST — Արհեստական բանականության ռիսկերի կառավարման շրջանակ (AI RMF 1.0) : Հղում
-
Google Cloud — MLOps. Մեքենայական ուսուցման մեջ անընդհատ մատակարարման և ավտոմատացման խողովակաշարեր ։ Հղում
-
scikit-learn — Օգտագործողի ուղեցույց ։ Հղում
-
PyTorch — Պաշտոնական ձեռնարկներ ։ Հղում
-
Գրկախառնվող դեմք — Տրանսֆորմերների արագ մեկնարկ ։ Հղում