Ինչպես ստեղծել արհեստական ​​բանականության մոդել

Ինչպես ստեղծել արհեստական ​​բանականության մոդել։ Քայլերի ամբողջական բացատրությունը։

Արհեստական ​​բանականության մոդելի ստեղծումը հնչում է դրամատիկ՝ ինչպես ֆիլմի մեջ գիտնականը, որը մրմնջում է եզակիությունների մասին, մինչև որ դուք իրականում դա անում եք մեկ անգամ։ Հետո հասկանում եք, որ դա կիսով չափ տվյալների մաքրման աշխատանք է, կիսով չափ՝ անհարմար ջրմուղագործություն և տարօրինակ կախվածություն առաջացնող։ Այս ուղեցույցը ներկայացնում է, թե ինչպես ստեղծել արհեստական ​​բանականության մոդել ՝ տվյալների նախապատրաստում, վերապատրաստում, փորձարկում, տեղակայում և, այո, ձանձրալի, բայց կարևոր անվտանգության ստուգումներ։ Մենք կօգտագործենք ոչ պաշտոնական տոն, կխորը մանրամասնություններ և կպահպանենք էմոջիները, որովհետև, անկեղծ ասած, ինչո՞ւ պետք է տեխնիկական գրելը հարկերի վճարման նման լինի։

Հոդվածներ, որոնք կարող են ձեզ դուր գալ կարդալ սրանից հետո.

🔗 Ի՞նչ է արհեստական ​​բանականության արբիտրաժը. այս տարածված բառի հետևում կանգնած ճշմարտությունը
Բացատրում է արհեստական ​​բանականության արբիտրաժը, դրա ռիսկերը, հնարավորությունները և իրական աշխարհի հետևանքները։

🔗 Ի՞նչ է արհեստական ​​բանականության մարզիչը
Ներառում է արհեստական ​​բանականության մարզչի դերը, հմտությունները և պարտականությունները։

🔗 Ի՞նչ է խորհրդանշական արհեստական ​​բանականությունը. Ամեն ինչ, ինչ դուք պետք է իմանաք
Բեկործում է խորհրդանշական արհեստական ​​բանականության հասկացությունները, պատմությունը և գործնական կիրառությունները։


Ինչն է կազմում արհեստական ​​բանականության մոդելը - Հիմունքներ ✅

«Լավ» մոդելը այն չէ, որը պարզապես 99% ճշգրտությամբ է աշխատում ձեր մշակողի նոթատետրում և հետո անհարմար դրության մեջ է դնում ձեզ արտադրության մեջ։ Այն այն մոդելն է, որը.

  • Լավ ձևակերպված → խնդիրը հստակ է, մուտքային/ելքային տվյալները ակնհայտ են, չափանիշը համաձայնեցված է։

  • Տվյալների նկատմամբ ազնիվ → տվյալների բազմությունը իրականում արտացոլում է խառնաշփոթ իրական աշխարհը, այլ ոչ թե ֆիլտրացված երազանքի տարբերակը։ Բաշխումը հայտնի է, արտահոսքը փակ է, պիտակները հետևելի են։

  • Հուսալի → մոդելը չի ​​փլուզվում, եթե սյուների կարգը փոխվում է կամ մուտքային տվյալները փոքր-ինչ շեղվում են։

  • Գնահատվում է իմաստով → չափանիշներ, որոնք համապատասխանում են իրականությանը, այլ ոչ թե առաջատարների ցանկի սնապարծությանը։ ROC AUC-ն հիանալի տեսք ունի, բայց երբեմն բիզնեսին հետաքրքրում է F1-ը կամ կալիբրացումը։

  • Տեղակայելի → կանխատեսելի եզրակացության ժամանակ, բավարար ռեսուրսներ, ներառված է տեղակայումից հետո մոնիթորինգ։

  • Պատասխանատու → արդարության թեստեր, մեկնաբանելիություն, չարաշահման դեմ պաշտպանիչ ցանկապատեր [1]:

Սեղմիր սրանք, և դու արդեն գրեթե պատրաստ ես։ Մնացածը պարզապես կրկնություն է… և մի փոքր «ներքին զգացողություն»։ 🙂

Փոքր պատերազմի պատմություն. խարդախության մոդելի դեպքում, ընդհանուր առմամբ, F1-ը հիանալի տեսք ուներ։ Այնուհետև մենք բաժանվեցինք աշխարհագրության + «քարտի առկայություն vs. բացակայություն» սկզբունքով։ Անակնկալ. կեղծ բացասական արդյունքները կտրուկ աճեցին մեկ հատվածում։ Դասը քաղվեց. կտրեք վաղ, կտրեք հաճախ։


Արագ մեկնարկ. արհեստական ​​բանականության մոդել ստեղծելու ամենակարճ ճանապարհը ⏱️

  1. Սահմանեք խնդիրը ՝ դասակարգում, ռեգրեսիա, վարկանիշավորում, հաջորդականության պիտակավորում, գեներացիա, առաջարկություն:

  2. Տվյալների հավաքագրում . հավաքագրում, կրկնօրինակում, ճիշտ բաժանում (ժամանակ/միավոր), փաստաթղթավորում [1]:

  3. Ելակետային գիծ . միշտ սկսեք փոքրից՝ լոգիստիկ ռեգրեսիա, փոքրիկ ծառ [3]:

  4. Ընտրեք մոդելային ընտանիք ՝ աղյուսակային → գրադիենտային ուժեղացում; տեքստային → փոքր տրանսֆորմատոր; տեսողություն → նախապես պատրաստված CNN կամ մայրուղի [3][5]:

  5. Մարզման ցիկլ ՝ օպտիմիզատոր + վաղաժամկետ կանգառ; հետևեք ինչպես կորստին, այնպես էլ վավերացմանը [4]:

  6. Գնահատում ՝ խաչաձև վավերացում, սխալների վերլուծություն, հերթափոխով թեստավորում։

  7. Փաթեթ . պահպանել կշիռները, նախնական պրոցեսորները, API փաթաթանը [2]:

  8. Մոնիտոր . ժամացույցի շեղում, լատենտություն, ճշգրտության անկում [2]:

Թղթի վրա այն կոկիկ տեսք ունի։ Գործնականում՝ անկարգ։ Եվ դա նորմալ է։


Համեմատական ​​աղյուսակ. գործիքներ՝ արհեստական ​​ինտելեկտի մոդել ստեղծելու համար 🛠️

Գործիք / Գրադարան Լավագույնը Գինը Ինչու է այն աշխատում (նշումներ)
scikit-learn Աղյուսակային, բազային գծեր Անվճար - OSS Մաքուր API, արագ փորձարկումներ, դեռևս հաղթում է դասականներում [3]:
PyTorch Խորը ուսուցում Անվճար - OSS Դինամիկ, ընթեռնելի, հսկայական համայնք [4]:
TensorFlow + Keras Արտադրական DL Անվճար - OSS Կերասի համար հարմար; TF սպասարկումը հարթեցնում է տեղակայումը։
JAX + Flax Հետազոտություն + արագություն Անվճար - OSS Ավտոմատ տարբերություն + XLA = արդյունավետության բարձրացում։
Գրկախառնվող դեմքի տրանսֆորմերներ NLP, CV, աուդիո Անվճար - OSS Նախապես պատրաստված մոդելներ + խողովակաշարեր... խոհարարի համբույր [5]:
XGBoost/LightGBM Աղյուսակային գերիշխանություն Անվճար - OSS Հաճախ գերազանցում է DL-ին համեստ տվյալների հավաքածուներում։
Արագ արհեստական ​​բանականություն Բարեկամական DL Անվճար - OSS Բարձր մակարդակի, ներողամիտ լռելյայն պարտավորություններ։
Cloud AutoML (տարբեր) Ոչ/ցածր կոդ Օգտագործման վրա հիմնված $ Քաշել, գցել, տեղակայել. զարմանալիորեն հուսալի։
ONNX-ի աշխատանքային ժամանակ Եզրակացության արագություն Անվճար - OSS Օպտիմալացված սպասարկում, եզրերին հարմար։

Փաստաթղթեր, որոնք դուք շարունակաբար կբացեք՝ scikit-learn [3], PyTorch [4], Hugging Face [5]:


Քայլ 1 - Խնդիրը ձևակերպեք գիտնականի, այլ ոչ թե հերոսի պես 🎯

Կոդ գրելուց առաջ բարձրաձայն ասեք հետևյալը. ի՞նչ որոշում կկայացնի այս մոդելը։ Եթե դա անորոշ է, տվյալների բազմությունն ավելի վատը կլինի։

  • Կանխատեսման նպատակ → մեկ սյունակ, մեկ սահմանում: Օրինակ՝ արտահոսք 30 օրվա ընթացքում:

  • Հատվածայնություն → մեկ օգտատիրոջ, մեկ սեսիայի, մեկ տարրի համար՝ մի խառնեք։ Արտահոսքի ռիսկը կտրուկ աճում է։

  • Սահմանափակումներ → լատենտություն, հիշողություն, գաղտնիություն, եզր vs սերվեր։

  • Հաջողության չափանիշ → մեկ հիմնական + մի քանի պահակներ։ Անհավասարակշիռ դասեր՞։ Օգտագործեք AUPRC + F1։ Ռեգրեսիա՞։ MAE-ն կարող է գերազանցել RMSE-ին, երբ միջնարժեքները կարևոր են։

Հուշում մարտից. Գրեք այս սահմանափակումները + չափանիշը README-ի առաջին էջում: Պահպանում է ապագա արգումենտները, երբ կատարողականությունն ու լատենտությունը բախվում են:


Քայլ 2 - Տվյալների հավաքագրում, մաքրում և բաժանումներ, որոնք իրականում դիմացկուն են 🧹📦

Տվյալները մոդելն են։ Դուք դա գիտեք։ Այնուամենայնիվ, թերությունները.

  • Ծագում → որտեղից է այն եկել, ում է այն պատկանում, ինչ ապահովագրական պայմանագրով [1]:

  • Պիտակներ → խիստ ուղեցույցներ, մեկնաբանությունների միջև ստուգումներ, աուդիտներ։

  • Կրկնօրինակների վերացում → խորամանկ կրկնօրինակները մեծացնում են չափանիշները։

  • Բաժանումներ → պատահականությունը միշտ չէ, որ ճիշտ է: Կանխատեսման համար օգտագործեք ժամանակի վրա հիմնված, իսկ օգտատիրոջ կողմից տեղեկատվության արտահոսքից խուսափելու համար՝ էնթիվի վրա հիմնված:

  • Արտահոսք → մարզման ժամանակ ապագային նայելու հնարավորություն չկա։

  • Փաստաթղթեր → գրել արագ տվյալների քարտ ՝ սխեմայով, հավաքածուով, շեղումներով [1]:

Ծիսակատարություն. պատկերացրեք թիրախի բաշխումը + վերին հատկանիշները: Նաև պահեք «անհպում» թեստի հավաքածուն մինչև վերջնականը:


Քայլ 3 - Նախ՝ բազային գծերը. համեստ մոդել, որը խնայում է ամիսներ 🧪

Հիմքերը հմայիչ չեն, բայց դրանք հիմք են հանդիսանում սպասումների համար։

  • Աղյուսակային → scikit-learn LogisticRegression կամ RandomForest, ապա XGBoost/LightGBM [3]:

  • Տեքստ → TF-IDF + գծային դասակարգիչ։ Առողջության ստուգում տրանսֆորմատորներից առաջ։

  • Տեսողություն → փոքրիկ CNN կամ նախապես մարզված ողնաշար, սառեցված շերտեր։

Եթե ​​ձեր խորը ցանցը հազիվ է գերազանցում բազային գիծը, շունչ քաշեք։ Երբեմն ազդանշանը պարզապես ուժեղ չէ։


Քայլ 4 - Ընտրեք տվյալներին համապատասխանող մոդելավորման մոտեցում 🍱

Աղյուսակային

Գրադիենտի ուժեղացումն առաջին հերթին՝ խիստ արդյունավետ։ Հատկանիշների ինժեներիան (փոխազդեցությունները, կոդավորումները) դեռևս կարևոր է։

Տեքստ

Նախապես պատրաստված տրանսֆորմատորներ՝ թեթև նուրբ կարգաբերմամբ: Թորած մոդել, եթե լատենտությունը կարևոր է [5]: Տոկենիզատորները նույնպես կարևոր են: Արագ հաղթանակների համար՝ HF խողովակաշարեր:

Պատկերներ

Սկսեք նախապես մարզված ողնաշարից + գլխիկի նուրբ կարգավորումից: Իրատեսորեն մեծացրեք (շրջումներ, կտրվածքներ, տատանումներ): Փոքր տվյալների համար՝ քիչ կրակոցներով կամ գծային զոնդեր:

Ժամանակային շարքեր

Հիմքեր՝ լագերի հատկանիշներ, շարժական միջիններ: Հին դպրոցի ARIMA-ն ընդդեմ ժամանակակից ուժեղացված ծառերի: Հաստատման ժամանակ միշտ հաշվի առեք ժամանակային կարգը:

Հիմնական կանոն՝ փոքր, կայուն մոդել > գերֆիզիկապես պատրաստված հրեշ։


Քայլ 5 - Մարզման ցիկլ, բայց մի՛ չափազանցեք բարդացնելը 🔁

Ձեզ անհրաժեշտ է միայն՝ տվյալների բեռնիչ, մոդել, կորստի ծրագիր, օպտիմալացուցիչ, ժամանակացույց, գրանցում։ Կատարված է։

  • Օպտիմալացնողներ ՝ Adam կամ SGD իմպուլսով։ Չափից շատ մի՛ փոփոխեք։

  • Փաթեթի չափս . առավելագույնի հասցնել սարքի հիշողությունը առանց ծանրաբեռնվածության։

  • Կանոնավորացում ՝ դասերից դուրս մնալը, քաշի նվազումը, վաղաժամ դադարեցումը։

  • Խառը ճշգրտություն . արագության հսկայական աճ. ժամանակակից շրջանակները դա հեշտացնում են [4]:

  • Վերարտադրելիություն ՝ սերմերը դնում են։ Այն դեռ կշարունակի շարժվել։ Դա նորմալ է։

Կանոնիկ օրինաչափությունների համար տե՛ս PyTorch-ի ձեռնարկները [4]:


Քայլ 6 - Գնահատում, որը արտացոլում է իրականությունը, այլ ոչ թե առաջատարների աղյուսակի միավորները 🧭

Ստուգեք կտորները, ոչ միայն միջինները։

  • Կալիբրացիա → հավանականությունները պետք է ինչ-որ բան նշանակեն։ Հուսալիության գրաֆիկները օգնում են։

  • Շփոթության պատկերացումներ → շեմային կորեր, տեսանելի փոխզիջումներ։

  • Սխալների ցանկեր → բաժանված ըստ տարածաշրջանի, սարքի, լեզվի, ժամանակի։ Գտեք թույլ կողմերը։

  • Հաստատունություն → փորձարկում տեղաշարժերի, խանգարող մուտքերի դեպքում։

  • Մարդկային ցիկլ → եթե մարդիկ օգտագործում են այն, փորձարկեք օգտագործելիությունը։

Կարճ պատմություն. մեկ անկում պայմանավորված էր ուսուցման և արտադրության միջև Unicode-ի նորմալացման անհամապատասխանությամբ։ Արժե՞ք։ 4 լրիվ միավոր։


Քայլ 7 - Փաթեթավորում, մատուցում և MLOps առանց արցունքների 🚚

Ահա թե որտեղ են նախագծերը հաճախ խափանվում։

  • Արտեֆակտներ ՝ մոդելի կշիռներ, նախամշակիչներ, «քոմիտ» հեշ։

  • Env : pin տարբերակներ, կոնտեյներիզացնել նիհար։

  • Ինտերֆեյս ՝ REST/gRPC /health + /predict ։

  • Լատենտություն/արտադրողականություն . խմբաքանակի հարցումներ, տաքացման մոդելներ։

  • Սարքավորումներ . Դասական տարբերակների համար պրոցեսորը հարմար է, իսկ DL տարբերակների համար՝ գրաֆիկական պրոցեսորները։ ONNX Runtime-ը բարձրացնում է արագությունը/փոխադրելիությունը։

Ամբողջական փաթեթի համար (CI/CD/CT, մոնիթորինգ, հետադարձ կապ) Google-ի MLOps փաստաթղթերը ամուր են [2]:


Քայլ 8 - Մոնիթորինգ, շեղում և վերավարժանք առանց խուճապի 📈🧭

Մոդելները քայքայվում են։ Օգտատերերը զարգանում են։ Տվյալների փոխանցման խողովակները վատ են գործում։

  • Տվյալների ստուգումներ ՝ սխեմա, միջակայքեր, զրոյական արժեքներ։

  • Կանխատեսումներ ՝ բաշխումներ, դրեյֆային չափանիշներ, արտառոց ցուցանիշներ։

  • Արդյունավետություն . պիտակները ստանալուց հետո հաշվարկեք չափանիշները։

  • Զգուշացումներ ՝ լատենտություն, սխալներ, շեղում։

  • Վերապատրաստել կադենսը . ձգան-հիմնված > օրացույց-հիմնված։

Փաստաթղթավորեք ցիկլը։ Վիքին գերազանցում է «ցեղային հիշողությանը»։ Տես Google CT playbooks [2]:


Պատասխանատու արհեստական ​​բանականություն. արդարություն, գաղտնիություն, մեկնաբանելիություն 🧩🧠

Եթե ​​մարդիկ տուժում են, պատասխանատվությունը կամավոր չէ։

  • Արդարության թեստեր → գնահատել զգայուն խմբերի միջև, մեղմացնել բացթողումները [1]:

  • Մեկնաբանելիություն → SHAP՝ աղյուսակայինի համար, վերագրում՝ խորըի համար։ Զգուշորեն վարվեք։

  • Գաղտնիություն/անվտանգություն → նվազագույնի հասցնել անձնական տեղեկությունները, անանունացնել, արգելափակել գործառույթները։

  • Քաղաքականություն → գրեք նախատեսված և արգելված օգտագործումները։ Խուսափում է հետագա ցավից [1]:


Կարճ մինի-ուղեցույց 🧑🍳

Ենթադրենք, որ մենք դասակարգում ենք ակնարկները՝ դրական ընդդեմ բացասականի։

  1. Տվյալներ → հավաքել ակնարկներ, կրկնօրինակել, բաժանել ժամանակի ընթացքում [1]:

  2. Բազային → TF-IDF + լոգիստիկ ռեգրեսիա (scikit-learn) [3]:

  3. Թարմացում → փոքր նախապես պատրաստված տրանսֆորմատոր՝ գրկող դեմքով [5]:

  4. Գնացք → մի քանի դարաշրջան, վաղ կանգառ, F1 գիծ [4]:

  5. Գնահատում → շփոթության մատրից, ճշգրտություն@հիշողություն, կալիբրացիա։

  6. Փաթեթ → տոկենիզատոր + մոդել, FastAPI փաթաթան [2]:

  7. Մոնիտոր → դիտել կատեգորիաների միջև շեղումը [2]:

  8. Պատասխանատու փոփոխություններ → ֆիլտրել անձնական տվյալները, հարգել զգայուն տվյալները [1]:

Սեղմ լատենտություն՞։ Մոդելի զտում, թե՞ ONNX արտահանում։


Տարածված սխալներ, որոնք մոդելներին խելացի տեսք են հաղորդում, բայց հիմարություն են անում 🙃

  • Արտահոսող առանձնահատկություններ (գնացքում իրադարձությունից հետո տվյալներ):

  • Սխալ չափանիշ (AUC, երբ թիմը հոգ է տանում հետկանչի մասին):

  • Փոքրիկ արժեքների հավաքածու (աղմկոտ «առաջխաղացումներ»):

  • Դասակարգային անհավասարակշռությունը անտեսվում է.

  • Անհամապատասխան նախնական մշակում (մարզում vs սպասարկում):

  • Շատ շուտ չափազանց անհատականացում.

  • Սահմանափակումների մոռացում (հսկայական մոդել բջջային հավելվածում):


Օպտիմալացման հնարքներ 🔧

  • Ավելացրեք ավելի խելացի տվյալներ՝ կոշտ բացասական թվեր, իրատեսական լրացումներ։

  • Ավելի դժվար է կանոնավորել՝ դուրս մնացած, ավելի փոքր մոդելներ։

  • Ուսուցման տեմպի գրաֆիկներ (կոսինուս/քայլ):

  • Խմբաքանակային մաքրումներ. ավելի մեծը միշտ չէ, որ ավելի լավ է։

  • Խառը ճշգրտություն + վեկտորացում արագության համար [4]:

  • Քվանտացում, կրճատում դեպի բարակ մոդելներ։

  • Քեշի ներկառուցումներ/նախահաշվարկային ծանր գործողություններ։


Տվյալների պիտակավորում, որը չի պայթում 🏷️

  • Ուղեցույցներ՝ մանրամասն, եզրագծով։

  • Գնացքի պիտակավորողներ. տրամաչափման առաջադրանքներ, համաձայնեցման ստուգումներ։

  • Որակ՝ ոսկեզօծ հավաքածուներ, ակնթարթային ստուգումներ։

  • Գործիքներ՝ տարբերակված տվյալների հավաքածուներ, արտահանելի սխեմաներ։

  • Էթիկա. արդար վարձատրություն, պատասխանատու մատակարարում: Կետ [1]:


Տեղակայման ձևեր 🚀

  • Խմբաքանակի հաշվարկ → գիշերային աշխատանքներ, պահեստ։

  • Իրական ժամանակի միկրոսպասարկում → համաժամեցման API, քեշավորման ավելացում։

  • Հոսքային հեռարձակում → իրադարձություններով պայմանավորված, օրինակ՝ խարդախություն։

  • Եզր → սեղմում, փորձարկման սարքեր, ONNX/TensorRT։

Պահպանեք runbook. հետադարձման քայլեր, արտեֆակտների վերականգնում [2]:


Ձեր ժամանակին արժանի ռեսուրսներ 📚

  • Հիմունքներ. scikit-learn օգտագործողի ուղեցույց [3]

  • DL ձևանմուշներ. PyTorch-ի ձեռնարկներ [4]

  • Փոխանցել ուսուցումը. Գրկախառնված դեմք արագ մեկնարկ [5]

  • Կառավարում/ռիսկ. NIST AI RMF [1]

  • MLOps: Google Cloud-ի ձեռնարկներ [2]


Հաճախակի տրվող հարցերի նման մանրուքներ 💡

  • Գրաֆիկական պրոցեսոր է պետք՞։ Tabular-ի համար չէ։ DL-ի համար՝ այո (ամպային վարձակալությունը գործում է)։

  • Բավականաչափ տվյալներ՞։ Ավելի շատ տվյալներ բավարար են, մինչև պիտակները աղմուկ չբարձրանան։ Սկսեք փոքրից, կրկնեք։

  • Չափանիշի ընտրություն։ Համապատասխան որոշման արժեքը։ Գրեք մատրիցը։

  • Բաց թողնե՞լ սկզբնական գիծը։ Դուք կարող եք… նույն կերպ, ինչպես կարող եք բաց թողնել նախաճաշը և զղջալ դրա համար։

  • AutoML՞։ Հիանալի է բութսթրեփինգի համար։ Այնուամենայնիվ, կատարեք ձեր սեփական աուդիտները [2]:


Մի փոքր խառնաշփոթ ճշմարտություն 🎬

Արհեստական ​​բանականության մոդելի ստեղծման գործընթացը պակաս էկզոտիկ մաթեմատիկայի մասին է, ավելի շատ՝ արհեստագործության. հստակ շրջանակում, մաքուր տվյալներ, բազային հավասարակշռության ստուգումներ, հուսալի գնահատում, կրկնվող իտերացիա: Ավելացրեք պատասխանատվություն, որպեսզի ապագան չմաքրի կանխարգելելի խառնաշփոթներ [1][2]:

Իրականում «ձանձրալի» տարբերակը՝ զգույշ և մեթոդական, հաճախ գերազանցում է ուրբաթ օրը ժամը 2-ին շտապող աչքի ընկնող մոդելին։ Իսկ եթե առաջին փորձը անհարմար է թվում։ Դա նորմալ է։ Մոդելները նման են թթխմորով նախուտեստների. կերակրեք, դիտարկեք, երբեմն վերսկսեք։ 🥖🤷


TL;DR

  • Շրջանակի խնդիր + մետրիկա; վերացնել արտահոսքը։

  • Հիմքը նախ. պարզ գործիքները հիանալի են։

  • Նախապես պատրաստված մոդելները օգնում են՝ մի՛ երկրպագեք նրանց։

  • Գնահատել հատվածների միջև, չափաբերել։

  • MLOps-ի հիմունքներ՝ տարբերակների կառավարում, մոնիթորինգ, հետադարձ ծրագրեր։

  • Պատասխանատու արհեստական ​​բանականություն՝ ներկառուցված, այլ ոչ թե պտուտակված։

  • Կրկնեք, ժպտացեք՝ դուք կառուցել եք արհեստական ​​բանականության մոդել։ 😄


Հղումներ

  1. NIST — Արհեստական ​​բանականության ռիսկերի կառավարման շրջանակ (AI RMF 1.0) : Հղում

  2. Google Cloud — MLOps. Մեքենայական ուսուցման մեջ անընդհատ մատակարարման և ավտոմատացման խողովակաշարեր ։ Հղում

  3. scikit-learn — Օգտագործողի ուղեցույց ։ Հղում

  4. PyTorch — Պաշտոնական ձեռնարկներ ։ Հղում

  5. Գրկախառնվող դեմք — Տրանսֆորմերների արագ մեկնարկ ։ Հղում


Գտեք արհեստական ​​բանականության վերջին նորույթները պաշտոնական արհեստական ​​բանականության օգնականների խանութում

Մեր մասին

Վերադառնալ բլոգ