Ներածություն
Գեներատիվ արհեստական բանականությունը՝ արհեստական բանականության համակարգերը, որոնք կարող են ստեղծել նոր բովանդակություն կամ կանխատեսումներ, ի հայտ են գալիս որպես կիբերանվտանգության ոլորտում փոխակերպող ուժ: OpenAI-ի GPT-4-ի նման գործիքները ցույց են տվել բարդ տվյալներ վերլուծելու և մարդանման տեքստ ստեղծելու ունակությունը՝ հնարավորություն տալով պաշտպանվել կիբերսպառնալիքներից նոր մոտեցումներով: Կիբերանվտանգության մասնագետները և բիզնես որոշում կայացնողները տարբեր ոլորտներում ուսումնասիրում են, թե ինչպես կարող է գեներատիվ արհեստական բանականությունը ամրապնդել պաշտպանությունը զարգացող հարձակումներից: Ֆինանսներից և առողջապահությունից մինչև մանրածախ առևտուր և կառավարություն, յուրաքանչյուր ոլորտի կազմակերպությունները բախվում են բարդ ֆիշինգի փորձերի, վնասակար ծրագրերի և այլ սպառնալիքների, որոնց դեմ կարող է պայքարել գեներատիվ արհեստական բանականությունը: Այս սպիտակ գրքում մենք ուսումնասիրում ենք, թե ինչպես կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ ՝ ընդգծելով իրական աշխարհի կիրառությունները, ապագա հնարավորությունները և ներդրման համար կարևոր նկատառումները:
Գեներատիվ արհեստական բանականությունը (ԱԲ) տարբերվում է ավանդական վերլուծական ԱԲ-ից ոչ միայն օրինաչափությունների հայտնաբերմամբ, այլև ստեղծելով ՝ լինի դա հարձակումների մոդելավորում՝ պաշտպանության մարզումների համար, թե բարդ անվտանգության տվյալների համար բնական լեզվով բացատրություններ ստեղծելով։ Այս կրկնակի հնարավորությունը այն դարձնում է երկկողմանի սուր. այն առաջարկում է հզոր նոր պաշտպանական գործիքներ, բայց սպառնալիքի գործիչները նույնպես կարող են շահագործել այն։ Հաջորդ բաժինները ուսումնասիրում են կիբերանվտանգության մեջ գեներատիվ ԱԲ-ի օգտագործման դեպքերի լայն շրջանակ՝ սկսած ֆիշինգի հայտնաբերման ավտոմատացումից մինչև միջադեպերի արձագանքման բարելավումը։ Մենք նաև քննարկում ենք ԱԲ-ի այս նորարարությունների խոստացած օգուտները, ինչպես նաև ռիսկերը (ինչպիսիք են ԱԲ-ի «հալյուցինացիաները» կամ հակառակորդական չարաշահումը), որոնք կազմակերպությունները պետք է կառավարեն։ Վերջապես, մենք տրամադրում ենք գործնական եզրակացություններ՝ օգնելու բիզնեսներին գնահատել և պատասխանատու կերպով ինտեգրել գեներատիվ ԱԲ-ն իրենց կիբերանվտանգության ռազմավարություններում։
Գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ. ակնարկ
Կիբերանվտանգության մեջ գեներատիվ արհեստական բանականությունը վերաբերում է արհեստական բանականության մոդելներին՝ հաճախ մեծ լեզվական մոդելներին կամ այլ նեյրոնային ցանցերին, որոնք կարող են ստեղծել պատկերացումներ, առաջարկություններ, կոդ կամ նույնիսկ սինթետիկ տվյալներ՝ անվտանգության խնդիրների լուծմանը նպաստելու համար: Ի տարբերություն զուտ կանխատեսողական մոդելների, գեներատիվ արհեստական բանականությունը կարող է մոդելավորել սցենարներ և ստեղծել մարդու համար ընթեռնելի արդյունքներ (օրինակ՝ զեկույցներ, ահազանգեր կամ նույնիսկ վնասակար կոդի նմուշներ)՝ հիմնվելով իր ուսումնական տվյալների վրա: Այս հնարավորությունն օգտագործվում է կանխատեսելու, հայտնաբերելու և դրանց արձագանքելու ավելի դինամիկ եղանակներով, քան նախկինում ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ): Օրինակ, գեներատիվ մոդելները կարող են վերլուծել հսկայական գրանցամատյաններ կամ սպառնալիքների հետախուզության պահոցներ և ստեղծել համառոտ ամփոփում կամ առաջարկվող գործողություն՝ գործելով գրեթե ինչպես անվտանգության թիմերի արհեստական բանականության «օգնականը»:
Կիբերպաշտպանության համար գեներատիվ արհեստական բանականության վաղ ներդրումը խոստումնալից է եղել: 2023 թվականին Microsoft-ը ներկայացրեց Security Copilot-ը ՝ անվտանգության վերլուծաբանների համար նախատեսված GPT-4-ով աշխատող օգնական, որը կօգնի հայտնաբերել խախտումները և զննել Microsoft-ի կողմից ամեն օր մշակվող 65 տրիլիոն ազդանշանները ( Microsoft Security Copilot-ը կիբերանվտանգության համար նախատեսված GPT-4 արհեստական բանականության նոր օգնական է | The Verge ): Վերլուծաբանները կարող են այս համակարգը գործարկել բնական լեզվով (օրինակ՝ «Ամփոփել վերջին 24 ժամվա ընթացքում անվտանգության բոլոր միջադեպերը» ), և համատեղ օդաչուն կստեղծի օգտակար պատմողական ամփոփում: Նմանապես, Google-ի սպառնալիքների հետախուզության արհեստական բանականությունը Gemini անունով գեներատիվ մոդել ՝ Google-ի սպառնալիքների վերաբերյալ հսկայական տվյալների բազայում զրույցային որոնում իրականացնելու համար, արագորեն վերլուծելով կասկածելի կոդը և ամփոփելով արդյունքները՝ վնասակար ծրագրերի որսորդներին օգնելու համար ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): Այս օրինակները ցույց են տալիս ներուժը. գեներատիվ արհեստական բանականությունը կարող է մարսել բարդ, մեծածավալ կիբերանվտանգության տվյալները և ներկայացնել պատկերացումները մատչելի ձևով՝ արագացնելով որոշումների կայացումը:
Միևնույն ժամանակ, գեներատիվ արհեստական բանականությունը կարող է ստեղծել խիստ իրատեսական կեղծ բովանդակություն, ինչը մեծ օգուտ է սիմուլյացիայի և ուսուցման համար (և, ցավոք, սոցիալական ինժեներիա մշակող հարձակվողների համար): Երբ անցնենք կոնկրետ օգտագործման դեպքերին, կտեսնենք, որ գեներատիվ արհեստական բանականության՝ սինթեզելու և վերլուծելու հիմք է հանդիսանում դրա բազմաթիվ կիբերանվտանգության կիրառությունների համար: Ստորև մենք կանդրադառնանք հիմնական օգտագործման դեպքերին՝ ընդգրկելով ամեն ինչ՝ սկսած ֆիշինգի կանխարգելումից մինչև անվտանգ ծրագրային ապահովման մշակում, օրինակներով, թե ինչպես է յուրաքանչյուրը կիրառվում տարբեր ոլորտներում:
Գեներատիվ արհեստական բանականության հիմնական կիրառությունները կիբերանվտանգության մեջ
Նկար. Կիբերանվտանգության մեջ գեներատիվ արհեստական բանականության հիմնական կիրառման դեպքերից են անվտանգության թիմերի համար արհեստական բանականության օգնականները, կոդի խոցելիության վերլուծությունը, ադապտիվ սպառնալիքների հայտնաբերումը, զրոյական օրվա հարձակման սիմուլյացիան, բարելավված կենսաչափական անվտանգությունը և ֆիշինգի հայտնաբերումը ( 6 կիրառման դեպք գեներատիվ արհեստական բանականության համար կիբերանվտանգության մեջ [+ օրինակներ] ):
Ֆիշինգի հայտնաբերում և կանխարգելում
Ֆիշինգը մնում է ամենատարածված կիբեռսպառնալիքներից մեկը, որը խաբեությամբ օգտատերերին ստիպում է սեղմել չարամիտ հղումներ կամ բացահայտել իրենց տվյալները: Գեներատիվ արհեստական բանականությունը կիրառվում է ինչպես ֆիշինգի փորձերը հայտնաբերելու , այնպես էլ օգտատերերի ուսուցումը բարելավելու համար՝ հաջող հարձակումները կանխելու համար: Պաշտպանական կողմից, արհեստական բանականության մոդելները կարող են վերլուծել էլեկտրոնային նամակների բովանդակությունը և ուղարկողների վարքագիծը՝ ֆիշինգի աննշան նշաններ հայտնաբերելու համար, որոնք կանոնների վրա հիմնված ֆիլտրերը կարող են անտեսել: Օրինական և խարդախ էլեկտրոնային նամակների մեծ տվյալների հավաքածուներից սովորելով՝ գեներատիվ մոդելը կարող է նշել տոնի, բառապաշարի կամ համատեքստի անոմալիաները, որոնք վկայում են խաբեության մասին՝ նույնիսկ այն դեպքում, երբ քերականությունն ու ուղղագրությունը այլևս չեն բացահայտում այն: Փաստորեն, Palo Alto Networks-ի հետազոտողները նշում են, որ գեներատիվ արհեստական բանականությունը կարող է նույնականացնել «ֆիշինգային էլեկտրոնային նամակների աննշան նշաններ, որոնք այլապես կարող էին չնկատվել», օգնելով կազմակերպություններին մնալ մեկ քայլ առաջ խաբեբաներից ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ):
Անվտանգության թիմերը նաև օգտագործում են գեներատիվ արհեստական բանականություն՝ ֆիշինգային հարձակումները մոդելավորելու ՝ ուսուցման և վերլուծության համար: Օրինակ՝ Ironscales-ը ներկայացրել է GPT-ով աշխատող ֆիշինգային սիմուլյացիոն գործիք, որն ավտոմատ կերպով ստեղծում է կեղծ ֆիշինգային էլ.փոստեր, որոնք հարմարեցված են կազմակերպության աշխատակիցներին ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): Այս արհեստական բանականությամբ մշակված էլ.փոստերը արտացոլում են հարձակվողի վերջին մարտավարությունը՝ անձնակազմին տալով ֆիշինգային բովանդակությունը հայտնաբերելու իրատեսական պրակտիկա: Նման անհատականացված ուսուցումը կարևոր է, քանի որ հարձակվողներն իրենք են կիրառում արհեստական բանականությունը՝ ավելի համոզիչ խայծեր ստեղծելու համար: Հատկանշական է, որ չնայած գեներատիվ արհեստական բանականությունը կարող է ստեղծել շատ հղկված ֆիշինգային հաղորդագրություններ (անցել են հեշտությամբ նկատելի կոտրված անգլերենի օրերը), պաշտպանները պարզել են, որ արհեստական բանականությունը անգերազանցելի չէ: 2024 թվականին IBM Security-ի հետազոտողները անցկացրեցին փորձ՝ համեմատելով մարդու կողմից գրված ֆիշինգային էլ.փոստերը արհեստական բանականության կողմից ստեղծված էլ.փոստերի հետ, և «զարմանալիորեն, արհեստական բանականության կողմից ստեղծված էլ.փոստերը դեռևս հեշտ էր հայտնաբերել՝ չնայած դրանց ճիշտ քերականությանը» ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Սա ենթադրում է, որ մարդկային ինտուիցիան՝ զուգորդված արհեստական բանականության կողմից օժանդակվող հայտնաբերման հետ, դեռևս կարող է ճանաչել նուրբ անհամապատասխանությունները կամ մետատվյալների ազդանշանները արհեստական բանականության կողմից գրված խարդախություններում:
Գեներատիվ արհեստական բանականությունը (AI) օգնում է ֆիշինգից պաշտպանությանը նաև այլ ձևերով: Մոդելները կարող են օգտագործվել ավտոմատացված պատասխաններ կամ ֆիլտրեր , որոնք ստուգում են կասկածելի էլեկտրոնային նամակները: Օրինակ, արհեստական բանականության համակարգը կարող է պատասխանել էլեկտրոնային նամակին որոշակի հարցումներով՝ ուղարկողի օրինականությունը ստուգելու համար, կամ օգտագործել LLM՝ էլ. նամակի հղումներն ու կցորդները ավազարկղում վերլուծելու, այնուհետև ամփոփելու ցանկացած չարամիտ մտադրություն: NVIDIA-ի Morpheus 21% -ով բարելավում է ֆիշինգային էլեկտրոնային նամակների հայտնաբերումը ավանդական անվտանգության գործիքների համեմատ ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Morpheus-ը նույնիսկ պրոֆիլավորում է օգտատիրոջ հաղորդակցման ձևերը՝ անսովոր վարքագիծ հայտնաբերելու համար (օրինակ՝ օգտատիրոջ կողմից հանկարծակի բազմաթիվ արտաքին հասցեներով էլեկտրոնային նամակներ ուղարկելը), ինչը կարող է ցույց տալ, որ կոտրված հաշիվը ֆիշինգային էլեկտրոնային նամակներ է ուղարկում:
Գործնականում, տարբեր ոլորտների ընկերություններ սկսում են վստահել արհեստական բանականությանը՝ էլեկտրոնային փոստը և վեբ տրաֆիկը սոցիալական ինժեներիայի հարձակումներից զտելու համար: Օրինակ՝ ֆինանսական ընկերությունները օգտագործում են գեներատիվ արհեստական բանականություն՝ հաղորդագրությունները սկանավորելու կեղծման փորձերի հայտնաբերման համար, որոնք կարող են հանգեցնել էլեկտրոնային խարդախության, մինչդեռ առողջապահական ծառայություններ մատուցողները կիրառում են արհեստական բանականություն՝ հիվանդների տվյալները ֆիշինգի հետ կապված խախտումներից պաշտպանելու համար: Իրատեսական ֆիշինգի սցենարներ ստեղծելով և չարամիտ հաղորդագրությունների առանձնահատկությունները նույնականացնելով՝ գեներատիվ արհեստական բանականությունը հզոր շերտ է ավելացնում ֆիշինգի կանխարգելման ռազմավարություններին: Եզրակացություն. արհեստական բանականությունը կարող է օգնել ավելի արագ և ճշգրիտ հայտնաբերել և վնասազերծել ֆիշինգային հարձակումները , նույնիսկ այն դեպքում, երբ հարձակվողները օգտագործում են նույն տեխնոլոգիան՝ իրենց խաղը բարելավելու համար:
Վնասակար ծրագրերի հայտնաբերում և սպառնալիքների վերլուծություն
Ժամանակակից վնասակար ծրագրերը անընդհատ զարգանում են. հարձակվողները ստեղծում են նոր տարբերակներ կամ մշուշոտում են կոդը՝ շրջանցելով հակավիրուսային ստորագրությունները: Գեներատիվ արհեստական բանականությունը առաջարկում է նորարարական մեթոդներ՝ թե՛ վնասակար ծրագրերը հայտնաբերելու, թե՛ դրա վարքագիծը հասկանալու համար: Մեկ մոտեցումը վնասակար ծրագրերի «չար երկվորյակներ» ստեղծելու . անվտանգության հետազոտողները կարող են հայտնի վնասակար ծրագրերի նմուշը ներմուծել գեներատիվ մոդելի մեջ՝ այդ վնասակար ծրագրերի բազմաթիվ մուտացված տարբերակներ ստեղծելու համար: Այդպիսով նրանք արդյունավետորեն կանխատեսում են հարձակվողի կողմից կատարվող փոփոխությունները: Արհեստական բանականության կողմից ստեղծված այս տարբերակները կարող են օգտագործվել հակավիրուսային և ներխուժման հայտնաբերման համակարգեր մարզելու համար, որպեսզի նույնիսկ վնասակար ծրագրերի փոփոխված տարբերակները ճանաչվեն վայրի բնության մեջ ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Այս նախաձեռնողական ռազմավարությունը օգնում է խզել այն ցիկլը, երբ հաքերները փոքր-ինչ փոփոխում են իրենց վնասակար ծրագրերը՝ հայտնաբերումից խուսափելու համար, և պաշտպանները ստիպված են ամեն անգամ նոր ստորագրություններ գրել: Ինչպես նշվել է մի արդյունաբերական փոդքասթում, անվտանգության մասնագետներն այժմ օգտագործում են գեներատիվ արհեստական բանականություն՝ «ցանցային երթևեկությունը մոդելավորելու և բարդ հարձակումները նմանակող վնասակար բեռներ ստեղծելու» համար, սթրեսային թեստավորելով իրենց պաշտպանությունը սպառնալիքների ամբողջ ընտանիքի դեմ, այլ ոչ թե մեկ օրինակի: Այս հարմարվողական սպառնալիքների հայտնաբերումը նշանակում է, որ անվտանգության գործիքները դառնում են ավելի դիմացկուն պոլիմորֆ վնասակար ծրագրերի նկատմամբ, որոնք այլապես կանցնեին միջով:
Հայտնաբերումից զատ, գեներատիվ արհեստական բանականությունը օգնում է վնասակար ծրագրերի վերլուծությանը և հակադարձ ինժեներիային , որոնք ավանդաբար աշխատատար առաջադրանքներ են սպառնալիքների վերլուծաբանների համար: Մեծ լեզվական մոդելներին կարող է հանձնարարվել ուսումնասիրել կասկածելի կոդը կամ սկրիպտները և պարզ լեզվով բացատրել, թե ինչի համար է նախատեսված կոդը: Իրական աշխարհի օրինակ է VirusTotal Code Insight-ը ՝ Google-ի VirusTotal-ի գործառույթ, որն օգտագործում է գեներատիվ արհեստական բանականության մոդելը (Google-ի Sec-PaLM)՝ պոտենցիալ վնասակար կոդի բնական լեզվով ամփոփումներ ստեղծելու համար ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): Այն, ըստ էության, «անվտանգության կոդավորմանը նվիրված ChatGPT-ի տեսակ է», որը գործում է որպես վնասակար ծրագրերի վերլուծաբան արհեստական բանականությամբ, որն աշխատում է 24/7՝ օգնելու մարդ վերլուծաբաններին հասկանալ սպառնալիքները ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Անծանոթ սկրիպտի կամ երկուական կոդի վրա խորանալու փոխարեն, անվտանգության թիմի անդամը կարող է անմիջապես բացատրություն ստանալ արհեստական բանականությունից, օրինակ՝ «Այս սկրիպտը փորձում է ֆայլ ներբեռնել XYZ սերվերից, ապա փոփոխել համակարգի կարգավորումները, ինչը վկայում է վնասակար ծրագրի վարքագծի մասին»: Սա զգալիորեն արագացնում է միջադեպերին արձագանքը, քանի որ վերլուծաբանները կարող են տեսակավորել և ընկալել նոր վնասակար ծրագրերը ավելի արագ, քան երբևէ։
Գեներատիվ արհեստական բանականությունը (AI) օգտագործվում է նաև հսկայական տվյալների հավաքածուներում վնասակար ծրագրերը հայտնաբերելու : Ավանդական հակավիրուսային շարժիչները սկանավորում են ֆայլերը՝ հայտնի ստորագրություններ գտնելու համար, բայց գեներատիվ մոդելը կարող է գնահատել ֆայլի բնութագրերը և նույնիսկ կանխատեսել, թե արդյոք այն վնասակար է՝ հիմնվելով սովորած օրինաչափությունների վրա: Միլիարդավոր ֆայլերի ատրիբուտները (վնասակար և բարորակ) վերլուծելով՝ AI-ն կարող է հայտնաբերել վնասակար մտադրություն, որտեղ որևէ հստակ ստորագրություն գոյություն չունի: Օրինակ, գեներատիվ մոդելը կարող է նշել կատարվող ֆայլը որպես կասկածելի, քանի որ դրա վարքագծի պրոֆիլը «նման է» մարզման ընթացքում տեսած փրկագին ծրագրաշարի մի փոքր տարբերակի, նույնիսկ եթե բինար ֆայլը նոր է: Այս վարքագծի վրա հիմնված հայտնաբերումը օգնում է հակազդել նոր կամ զրոյական օրվա վնասակար ծրագրերին: Google-ի սպառնալիքների հետախուզության AI-ն (Chronicle/Mandiant-ի մաս) ըստ տեղեկությունների օգտագործում է իր գեներատիվ մոդելը՝ պոտենցիալ վնասակար կոդը վերլուծելու և «ավելի արդյունավետ և արդյունավետ կերպով անվտանգության մասնագետներին օգնելու վնասակար ծրագրերի և այլ տեսակի սպառնալիքների դեմ պայքարում» ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակներ ):
Մյուս կողմից, մենք պետք է ընդունենք, որ հարձակվողները կարող են նաև այստեղ օգտագործել գեներատիվ արհեստական բանականություն՝ ավտոմատ կերպով ստեղծելով վնասակար ծրագրեր, որոնք հարմարվում են իրենց։ Փաստորեն, անվտանգության մասնագետները զգուշացնում են, որ գեներատիվ արհեստական բանականությունը կարող է օգնել կիբեռհանցագործներին մշակել վնասակար ծրագրեր , որոնք ավելի դժվար է հայտնաբերել ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ): Արհեստական բանականության մոդելին կարող են հրահանգվել բազմիցս ձևափոխել վնասակար ծրագրի մի մասը (փոխելով դրա ֆայլի կառուցվածքը, կոդավորման մեթոդները և այլն), մինչև այն խուսափի բոլոր հայտնի հակավիրուսային ստուգումներից: Այս հակառակորդական օգտագործումը աճող մտահոգություն է առաջացնում (երբեմն անվանում են «արհեստական բանականությամբ աշխատող վնասակար ծրագիր» կամ պոլիմորֆ վնասակար ծրագիր որպես ծառայություն): Մենք նման ռիսկերը կքննարկենք ավելի ուշ, բայց դա ընդգծում է, որ գեներատիվ արհեստական բանականությունը գործիք է այս կատվի և մկան խաղում, որն օգտագործվում է և՛ պաշտպանների, և՛ հարձակվողների կողմից:
Ընդհանուր առմամբ, գեներատիվ արհեստական բանականությունը (ԱԲ) բարելավում է վնասակար ծրագրերից պաշտպանությունը՝ թույլ տալով անվտանգության թիմերին մտածել հարձակվողի պես ՝ ստեղծելով նոր սպառնալիքներ և լուծումներ ներքին ռեսուրսներով: Անկախ նրանից, թե դա սինթետիկ վնասակար ծրագրեր է ստեղծում՝ հայտնաբերման մակարդակը բարելավելու համար, թե ԱԲ օգտագործում՝ ցանցերում հայտնաբերված իրական վնասակար ծրագրերը բացատրելու և պարունակելու համար, այս մեթոդները կիրառելի են բոլոր ոլորտներում: Բանկը կարող է օգտագործել ԱԲ-ի կողմից ղեկավարվող վնասակար ծրագրերի վերլուծությունը՝ աղյուսակում կասկածելի մակրոն արագ վերլուծելու համար, մինչդեռ արտադրական ընկերությունը կարող է ապավինել ԱԲ-ին՝ արդյունաբերական կառավարման համակարգերը թիրախավորող վնասակար ծրագրերը հայտնաբերելու համար: Ավանդական վնասակար ծրագրերի վերլուծությունը գեներատիվ ԱԲ-ով լրացնելով՝ կազմակերպությունները կարող են ավելի արագ և ավելի նախաձեռնողաբար արձագանքել վնասակար ծրագրերի արշավներին, քան նախկինում:
Սպառնալիքների հետախուզություն և ավտոմատացված վերլուծություն
Ամեն օր կազմակերպությունները ռմբակոծվում են սպառնալիքների հետախուզության տվյալներով՝ սկսած նոր հայտնաբերված վտանգի ինդիկատորների (IOC) հոսքերից մինչև վերլուծաբանների զեկույցներ զարգացող հաքերային մարտավարությունների մասին: Անվտանգության թիմերի համար մարտահրավեր է տեղեկատվության այս ջրհեղեղը զտելը և գործնականում կիրառելի պատկերացումներ քաղելը: Գեներացնող արհեստական բանականությունը անգնահատելի է ապացուցում սպառնալիքների հետախուզության վերլուծության և օգտագործման ավտոմատացման : Տասնյակ զեկույցներ կամ տվյալների բազայի գրառումներ ձեռքով կարդալու փոխարեն, վերլուծաբանները կարող են օգտագործել արհեստական բանականությունը՝ սպառնալիքների մասին տեղեկատվությունը մեքենայի արագությամբ ամփոփելու և համատեքստի մեջ դնելու համար:
Մեկ կոնկրետ օրինակ է Google-ի սպառնալիքների հետախուզության փաթեթը, որը ինտեգրում է գեներատիվ արհեստական բանականությունը (Gemini մոդելը) Google-ի Mandiant-ի և VirusTotal-ի սպառնալիքների տվյալների պաշարների հետ: Այս արհեստական բանականությունը ապահովում է «զրույցի որոնում Google-ի սպառնալիքների հետախուզության հսկայական պահոցում» , թույլ տալով օգտատերերին բնական հարցեր տալ սպառնալիքների մասին և ստանալ թորված պատասխաններ ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակներ ): Օրինակ, վերլուծաբանը կարող է հարցնել. «Արդյո՞ք մենք տեսել ենք որևէ վնասակար ծրագիր, որը կապված է սպառնալիքների խմբի X-ի հետ, որը թիրախավորում է մեր արդյունաբերությունը», և արհեստական բանականությունը կհավաքի համապատասխան տեղեկատվություն, գուցե նշելով. «Այո, սպառնալիքների խումբ X-ը կապված էր ֆիշինգային արշավի հետ անցյալ ամիս՝ օգտագործելով վնասակար ծրագիր Y» , ինչպես նաև այդ վնասակար ծրագրի վարքագծի ամփոփում: Սա զգալիորեն կրճատում է պատկերացումներ հավաքելու ժամանակը, որը այլապես կպահանջեր բազմաթիվ գործիքների հարցումներ կամ երկար զեկույցներ կարդալ:
Գեներատիվ արհեստական բանականությունը կարող է նաև համեմատել և ամփոփել սպառնալիքների միտումները : Այն կարող է մանրակրկիտ ուսումնասիրել անվտանգության բլոգի հազարավոր գրառումներ, խախտումների մասին նորություններ և մութ ցանցի մասին խոսակցություններ, ապա ստեղծել «այս շաբաթվա կիբերսպառնալիքների» գործադիր ամփոփում CISO-ի ճեպազրույցի համար: Ավանդաբար, վերլուծության և հաշվետվությունների այս մակարդակը պահանջում էր զգալի մարդկային ջանքեր. այժմ լավ կարգավորված մոդելը կարող է այն նախագծել վայրկյանների ընթացքում, ընդ որում՝ մարդիկ միայն մշակում են արդյունքը: ZeroFox-ի նման ընկերությունները մշակել են FoxGPT-ն ՝ գեներատիվ արհեստական բանականության գործիք, որը հատուկ մշակված է «մեծ տվյալների հավաքածուներում հետախուզության վերլուծությունն ու ամփոփումը արագացնելու», այդ թվում՝ վնասակար բովանդակության և ֆիշինգի տվյալների ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ. 10 իրական աշխարհի օրինակ ): Տվյալների ընթերցման և խաչաձև հղումների ծանր աշխատանքը ավտոմատացնելով՝ արհեստական բանականությունը հնարավորություն է տալիս սպառնալիքների հետախուզության թիմերին կենտրոնանալ որոշումների կայացման և արձագանքման վրա:
Մեկ այլ օգտագործման դեպք է խոսակցական սպառնալիքների որսը : Պատկերացրեք, որ անվտանգության վերլուծաբանը փոխազդում է արհեստական բանականության օգնականի հետ. «Ցույց տվեք ինձ վերջին 48 ժամվա ընթացքում տվյալների արտահոսքի որևէ նշան» կամ «Որո՞նք են այս շաբաթվա ընթացքում հարձակվողների կողմից շահագործվող ամենատարածված նոր խոցելիությունները»: Արհեստական բանականությունը կարող է մեկնաբանել հարցումը, որոնել ներքին գրանցամատյաններում կամ արտաքին հետախուզական աղբյուրներում և պատասխանել հստակ պատասխանով կամ նույնիսկ համապատասխան միջադեպերի ցանկով: Սա այդքան էլ անհավանական չէ. ժամանակակից անվտանգության տեղեկատվության և իրադարձությունների կառավարման (SIEM) համակարգերը սկսում են ներառել բնական լեզվով հարցումներ: Օրինակ, IBM-ի QRadar անվտանգության փաթեթը 2024 թվականին ավելացնում է գեներատիվ արհեստական բանականության գործառույթներ, որոնք թույլ են տալիս վերլուծաբաններին միջադեպի ամփոփված հարձակման ուղու վերաբերյալ» «մեկնաբանել և ամփոփել խիստ համապատասխան սպառնալիքների հետախուզությունը» ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակներ ): Ըստ էության, գեներատիվ արհեստական բանականությունը տեխնիկական տվյալների լեռները վերածում է չաթի չափի վերլուծությունների՝ պահանջարկի դեպքում:
Սա մեծ հետևանքներ ունի բոլոր ոլորտներում: Առողջապահության մատակարարը կարող է օգտագործել արհեստական բանականությունը՝ հիվանդանոցներին թիրախավորող փրկագին պահանջող վերջին խմբերի մասին տեղեկացված մնալու համար՝ առանց վերլուծաբանի լրիվ դրույքով հետազոտություններ կատարելու համար: Մանրածախ առևտրի ընկերության SOC-ն կարող է արագ ամփոփել POS վնասակար ծրագրերի նոր մարտավարությունը՝ խանութի ՏՏ աշխատակիցներին տեղեկացնելիս: Իսկ կառավարությունում, որտեղ տարբեր գործակալություններից ստացված սպառնալիքների տվյալները պետք է սինթեզվեն, արհեստական բանականությունը կարող է կազմել միասնական զեկույցներ՝ ընդգծելով հիմնական նախազգուշացումները: Ավտոմատացնելով սպառնալիքների վերաբերյալ հետախուզության հավաքագրումը և մեկնաբանությունը , գեներատիվ արհեստական բանականությունը օգնում է կազմակերպություններին ավելի արագ արձագանքել ի հայտ եկող սպառնալիքներին և նվազեցնում է աղմուկի մեջ թաքնված կարևոր նախազգուշացումները բաց թողնելու ռիսկը:
Անվտանգության գործողությունների կենտրոնի (SOC) օպտիմալացում
Անվտանգության գործողությունների կենտրոնները հայտնի են իրենց տագնապի հոգնածությամբ և տվյալների ահռելի ծավալով: Անվտանգության գործողությունների կենտրոնների (SOC) տիպիկ վերլուծաբանը կարող է ամեն օր հազարավոր տագնապների և իրադարձությունների միջով անցնել՝ հետաքննելով հնարավոր միջադեպերը: Գեներատիվ արհեստական բանականությունը (AI) գործում է որպես ուժի բազմապատկիչ SOC-ներում՝ ավտոմատացնելով առօրյա աշխատանքը, տրամադրելով ինտելեկտուալ ամփոփագրեր և նույնիսկ կազմակերպելով որոշ արձագանքներ: Նպատակն է օպտիմալացնել SOC աշխատանքային հոսքերը, որպեսզի մարդ վերլուծաբանները կարողանան կենտրոնանալ ամենակարևոր խնդիրների վրա, մինչդեռ արհեստական բանականության երկրորդ օդաչուն կհոգա մնացածի մասին:
Մեկ հիմնական կիրառություն գեներատիվ արհեստական բանականությունն է որպես «վերլուծաբանի օգնական» ։ Microsoft-ի անվտանգության օգնականը, որը նշվեց ավելի վաղ, դրա վառ օրինակն է. այն «նախագծված է անվտանգության վերլուծաբանի աշխատանքին օգնելու, այլ ոչ թե այն փոխարինելու համար», օգնելով միջադեպերի հետաքննության և հաշվետվությունների հարցում ( Microsoft Security Copilot-ը կիբերանվտանգության համար նախատեսված GPT-4 արհեստական բանականության նոր օգնական է | The Verge ): Գործնականում սա նշանակում է, որ վերլուծաբանը կարող է մուտքագրել հում տվյալներ՝ firewall-ի գրանցամատյաններ, իրադարձությունների ժամանակացույց կամ միջադեպի նկարագրություն՝ և խնդրել արհեստական բանականությանը վերլուծել կամ ամփոփել այն։ Օգնականը կարող է արտածել այսպիսի պատմություն. «Պարզվում է, որ ժամը 2:35-ին IP X-ից Y սերվերում հաջողությամբ կատարվել է կասկածելի մուտք, որին հաջորդել են անսովոր տվյալների փոխանցումներ, որոնք վկայում են այդ սերվերի հնարավոր խախտման մասին»։ Այս տեսակի անմիջական համատեքստավորումը անգնահատելի է, երբ ժամանակը կարևոր է։
Արհեստական բանականության երկրորդ օդաչուները նաև օգնում են նվազեցնել 1-ին մակարդակի տեսակավորման բեռը: Արդյունաբերության տվյալների համաձայն՝ անվտանգության թիմը կարող է շաբաթական 15 ժամ մոտ 22,000 ահազանգերի և կեղծ դրական արդյունքների տեսակավորման վրա ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Գեներատիվ արհեստական բանականության միջոցով այս ահազանգերից շատերը կարող են ավտոմատ կերպով տեսակավորվել. արհեստական բանականությունը կարող է անտեսել ակնհայտորեն անվնասները (տրված հիմնավորմամբ) և ընդգծել իսկապես ուշադրության կարիք ունեցողները, երբեմն նույնիսկ առաջարկելով առաջնահերթությունը: Փաստորեն, գեներատիվ արհեստական բանականության ուժը համատեքստը հասկանալու հարցում նշանակում է, որ այն կարող է խաչաձևորեն համեմատել ահազանգերը, որոնք առանձին-առանձին կարող են անվնաս թվալ, բայց միասին ցույց են տալիս բազմափուլ հարձակում: Սա նվազեցնում է «ահազանգության հոգնածության» պատճառով հարձակումը բաց թողնելու հավանականությունը:
SOC վերլուծաբանները նաև բնական լեզու են օգտագործում արհեստական բանականության հետ՝ որոնումներն ու հետաքննությունները արագացնելու համար: Օրինակ՝ Purple AI «տալ սպառնալիքների որոնման բարդ հարցեր պարզ անգլերենով և ստանալ արագ, ճշգրիտ պատասխաններ» ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակներ ): Վերլուծաբանը կարող է մուտքագրել. «Վերջին մեկ ամսվա ընթացքում որևէ վերջնակետ կապվե՞լ է badguy123[.]com դոմեյնի հետ» , և Purple AI-ը կփնտրի գրանցամատյանները՝ պատասխանելու համար: Սա վերլուծաբանին ազատում է տվյալների բազայի հարցումներ կամ սկրիպտներ գրելուց. արհեստական բանականությունը դա անում է գաղտնի: Դա նաև նշանակում է, որ կրտսեր վերլուծաբանները կարող են կատարել այնպիսի առաջադրանքներ, որոնք նախկինում պահանջում էին փորձառու ինժեներ, որը հմուտ էր հարցումների լեզուներին, արդյունավետորեն բարձրացնելով թիմի հմտությունները արհեստական բանականության օգնության միջոցով : Իրոք, վերլուծաբանները հայտնում են, որ գեներատիվ արհեստական բանականության ուղղորդումը «բարձրացնում է նրանց հմտություններն ու կարողությունները» , քանի որ կրտսեր աշխատակիցներն այժմ կարող են պահանջարկի դեպքում ստանալ կոդավորման աջակցություն կամ վերլուծության խորհուրդներ արհեստական բանականությունից, նվազեցնելով ավագ թիմի անդամներից միշտ օգնություն խնդրելու կախվածությունը ( Գեներատիվ արհեստական բանականության 6 կիրառման դեպքեր կիբերանվտանգության մեջ [+ օրինակներ] ):
Մեկ այլ SOC օպտիմալացում է միջադեպերի ավտոմատ ամփոփումը և փաստաթղթավորումը : Միջադեպի կարգավորումից հետո ինչ-որ մեկը պետք է գրի զեկույցը՝ մի առաջադրանք, որը շատերը ձանձրալի են համարում: Գեներատիվ արհեստական բանականությունը կարող է վերցնել դատաբժշկական տվյալները (համակարգային գրանցամատյաններ, վնասակար ծրագրերի վերլուծություն, գործողությունների ժամանակացույց) և ստեղծել միջադեպի զեկույցի առաջին նախագիծ: IBM-ը այս հնարավորությունը ներկառուցում է QRadar-ում, որպեսզի «մեկ սեղմումով» միջադեպի ամփոփումը կարողանա ստեղծվել տարբեր շահագրգիռ կողմերի (ղեկավարներ, ՏՏ թիմեր և այլն) համար ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): Սա ոչ միայն խնայում է ժամանակ, այլև ապահովում է, որ զեկույցում ոչինչ անտեսված չլինի, քանի որ արհեստական բանականությունը կարող է հետևողականորեն ներառել բոլոր համապատասխան մանրամասները: Նմանապես, համապատասխանության և աուդիտի համար արհեստական բանականությունը կարող է լրացնել ձևաթղթեր կամ ապացույցների աղյուսակներ՝ հիմնվելով միջադեպի տվյալների վրա:
Իրական աշխարհի արդյունքները համոզիչ են: Swimlane-ի արհեստական բանականության վրա հիմնված SOAR-ի (անվտանգության կազմակերպում, ավտոմատացում և արձագանք) վաղ շրջանի ներդրողները հայտնում են արտադրողականության հսկայական աճի մասին. օրինակ՝ Global Data Systems-ը տեսավ, որ իրենց SecOps թիմը կառավարել է շատ ավելի մեծ գործերի բեռ. մի տնօրեն ասաց, որ «այն, ինչ ես այսօր անում եմ 7 վերլուծաբանների հետ, հավանաբար կպահանջեր 20 աշխատակից առանց» արհեստական բանականության վրա հիմնված ավտոմատացման ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ ): Այլ կերպ ասած, SOC-ում արհեստական բանականությունը կարող է բազմապատկել հզորությունը : Բոլոր ոլորտներում, լինի դա ամպային անվտանգության ահազանգերով զբաղվող տեխնոլոգիական ընկերություն, թե արտադրական գործարան, որը վերահսկում է OT համակարգերը, SOC թիմերը կարող են ստանալ ավելի արագ հայտնաբերում և արձագանք, ավելի քիչ բաց թողնված միջադեպեր և ավելի արդյունավետ գործողություններ՝ ներգրավելով գեներատիվ արհեստական բանականության օգնականներին: Խոսքը ավելի խելացի աշխատանքի մասին է՝ թույլ տալով մեքենաներին կատարել կրկնվող և տվյալների վրա ծանրաբեռնված առաջադրանքներ, որպեսզի մարդիկ կարողանան կիրառել իրենց ինտուիցիան և փորձը այնտեղ, որտեղ դա ամենակարևորն է:
Խոցելիության կառավարում և սպառնալիքների մոդելավորում
Խոցելիությունների՝ ծրագրային ապահովման կամ համակարգերի թույլ կողմերի, որոնք հարձակվողները կարող են շահագործել, բացահայտումը և կառավարումը կիբերանվտանգության հիմնական գործառույթ է: Գեներատիվ արհեստական բանականությունը (AI) բարելավում է խոցելիությունների կառավարումը՝ արագացնելով հայտնաբերումը, օգնելով թարմացումների առաջնահերթության սահմանմանը և նույնիսկ մոդելավորելով այդ խոցելիությունների վրա հարձակումները՝ պատրաստվածությունը բարելավելու համար: Ըստ էության, արհեստական բանականությունը օգնում է կազմակերպություններին ավելի արագ գտնել և շտկել իրենց «պաշտպանության» բացերը և նախաձեռնողաբար փորձարկում է պաշտպանությունը, նախքան դա կանեն իրական հարձակվողները:
Մեկ կարևոր կիրառություն է գեներատիվ արհեստական բանականության օգտագործումը կոդի ավտոմատացված վերանայման և խոցելիությունների հայտնաբերման : Մեծ կոդային բազաները (հատկապես ժառանգական համակարգերը) հաճախ պարունակում են անվտանգության թերություններ, որոնք աննկատ են մնում: Գեներատիվ արհեստական բանականության մոդելները կարող են մարզվել անվտանգ կոդավորման պրակտիկայի և տարածված սխալների օրինաչափությունների վրա, այնուհետև գործարկվել սկզբնական կոդի կամ կոմպիլացված երկուական ֆայլերի վրա՝ հնարավոր խոցելիություններ գտնելու համար: Օրինակ, NVIDIA հետազոտողները մշակել են գեներատիվ արհեստական բանականության խողովակաշար, որը կարող է վերլուծել ժառանգական ծրագրային ապահովման տարաները և նույնականացնել խոցելիությունները «բարձր ճշգրտությամբ՝ մինչև 4 անգամ ավելի արագ, քան մարդկային փորձագետները» ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպքեր կիբերանվտանգության մեջ [+ օրինակներ] ): Արհեստական բանականությունը, ըստ էության, սովորել է, թե ինչ տեսք ունի անապահով կոդը և կարողացել է սկանավորել տասնամյակների հնության ծրագրակազմը՝ նշելու ռիսկային գործառույթներն ու գրադարանները, զգալիորեն արագացնելով ձեռքով կոդի աուդիտի սովորաբար դանդաղ գործընթացը: Այս տեսակի գործիքը կարող է խաղի կանոնները փոխող լինել այնպիսի ոլորտների համար, ինչպիսիք են ֆինանսները կամ կառավարությունը, որոնք հենվում են մեծ, հին կոդային բազաների վրա. արհեստական բանականությունը օգնում է արդիականացնել անվտանգությունը՝ բացահայտելով այնպիսի խնդիրներ, որոնք աշխատակիցներին կարող են ամիսներ կամ տարիներ պահանջել գտնելու համար (եթե երբևէ):
Գեներատիվ արհեստական բանականությունը (ԱԲ) նաև օգնում է խոցելիությունների կառավարման աշխատանքային հոսքերին ` մշակելով խոցելիությունների սկանավորման արդյունքները և դրանք առաջնահերթ դարձնելով: Tenable-ի ExposureAI- օգտագործում են գեներատիվ արհեստական բանականություն, որպեսզի վերլուծաբանները կարողանան պարզ լեզվով հարցումներ կատարել խոցելիության վերաբերյալ և ստանալ անհապաղ պատասխաններ ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): ExposureAI-ն կարող է «ամփոփել հարձակման ամբողջական ուղին պատմության մեջ» տվյալ կրիտիկական խոցելիության համար, բացատրելով, թե ինչպես կարող է հարձակվողը այն կապել այլ թույլ կողմերի հետ՝ համակարգը վտանգելու համար: Այն նույնիսկ խորհուրդ է տալիս գործողություններ՝ շտկելու համար և պատասխանում է ռիսկի վերաբերյալ հետագա հարցերին: Սա նշանակում է, որ երբ հայտարարվում է նոր կրիտիկական CVE (ընդհանուր խոցելիություններ և բացահայտումներ) մասին, վերլուծաբանը կարող է հարցնել ԱԲ-ին. «Արդյո՞ք մեր սերվերներից որևէ մեկը տուժել է այս CVE-ից, և ո՞րն է ամենավատ սցենարը, եթե մենք չթարմացնենք դրանք» և ստանալ կազմակերպության սեփական սկանավորման տվյալներից կազմված հստակ գնահատական: Համատեքստավորելով խոցելիությունները (օրինակ՝ սա հասանելի է ինտերնետին և գտնվում է բարձր արժեք ունեցող սերվերի վրա, ուստի այն գերակա է), գեներատիվ արհեստական բանականությունը օգնում է թիմերին խելացիորեն թարմացնել դրանք սահմանափակ ռեսուրսներով:
Բացի հայտնի խոցելիությունները գտնելուց և կառավարելուց, գեներատիվ արհեստական բանականությունը նպաստում է ներթափանցման թեստավորմանը և հարձակման մոդելավորմանը ՝ ըստ էության հայտնաբերելով անհայտ խոցելիություններ կամ փորձարկելով անվտանգության կառավարման միջոցները: Գեներատիվ հակառակորդական ցանցերը (GAN), որոնք գեներատիվ արհեստական բանականության տեսակ են, օգտագործվել են սինթետիկ տվյալներ ստեղծելու համար, որոնք ընդօրինակում են իրական ցանցային երթևեկությունը կամ օգտատիրոջ վարքագիծը, որը կարող է ներառել թաքնված հարձակման օրինաչափություններ: 2023 թվականի ուսումնասիրությունը առաջարկել է օգտագործել GAN-ներ՝ ներխուժման հայտնաբերման համակարգերը մարզելու համար իրատեսական զրոյական օրվա հարձակման երթևեկություն ստեղծելու համար ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): IDS-ը արհեստական բանականության կողմից մշակված հարձակման սցենարներով սնուցելով (որոնք չեն ռիսկի դիմում արտադրական ցանցերում իրական վնասակար ծրագրեր օգտագործելու համար), կազմակերպությունները կարող են մարզել իրենց պաշտպանությունը՝ նոր սպառնալիքները ճանաչելու համար՝ առանց սպասելու դրանց իրական հարվածին: Նմանապես, արհեստական բանականությունը կարող է մոդելավորել համակարգը փորձարկող հարձակվողի՝ օրինակ՝ ավտոմատ կերպով փորձելով տարբեր շահագործման տեխնիկաներ անվտանգ միջավայրում՝ տեսնելու համար, թե արդյոք դրանցից որևէ մեկը հաջողվում է: ԱՄՆ Պաշտպանության առաջադեմ հետազոտական նախագծերի գործակալությունը (DARPA) այստեղ խոստումնալից բան է տեսնում. նրա 2023 թվականի արհեստական բանականության կիբեր մարտահրավերը բացահայտորեն օգտագործում է գեներատիվ արհեստական բանականություն (ինչպես մեծ լեզվական մոդելները)՝ «բաց կոդով ծրագրային ապահովման խոցելիությունները ավտոմատ կերպով գտնելու և շտկելու» ՝ որպես մրցույթի մաս ( DARPA-ն նպատակ ունի զարգացնել արհեստական բանականություն, ինքնավարության կիրառություններ, որոնց զինվորները կարող են վստահել > ԱՄՆ պաշտպանության նախարարություն > Պաշտպանության նախարարության նորություններ ): Այս նախաձեռնությունը ընդգծում է, որ արհեստական բանականությունը ոչ միայն օգնում է շտկել հայտնի բացթողումները, այլև ակտիվորեն բացահայտում է նորերը և առաջարկում է լուծումներ, մի խնդիր, որը ավանդաբար սահմանափակվում է որակավորված (և թանկ) անվտանգության հետազոտողներով:
Գեներատիվ արհեստական բանականությունը կարող է նույնիսկ ստեղծել ինտելեկտուալ մեղրախողովակներ և թվային երկվորյակներ պաշտպանության համար: Ստարտափները մշակում են արհեստական բանականության վրա հիմնված խայծային համակարգեր, որոնք համոզիչ կերպով ընդօրինակում են իրական սերվերները կամ սարքերը: Ինչպես բացատրել է մեկ գործադիր տնօրեն, գեներատիվ արհեստական բանականությունը կարող է «կլոնավորել թվային համակարգերը՝ իրական համակարգերը ընդօրինակելու և հաքերներին գրավելու համար» ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպքեր կիբերանվտանգության մեջ [+ օրինակներ] ): Այս արհեստական բանականության կողմից ստեղծված մեղրախողովակները գործում են ինչպես իրական միջավայրը (օրինակ՝ կեղծ IoT սարք, որը ուղարկում է սովորական հեռաչափություն), բայց գոյություն ունեն միայն հարձակվողներին գրավելու համար: Երբ հարձակվողը թիրախավորում է խայծը, արհեստական բանականությունը, ըստ էության, խաբում է նրանց՝ բացահայտելու իրենց մեթոդները, որոնք պաշտպանները կարող են ուսումնասիրել և օգտագործել իրական համակարգերը ամրապնդելու համար: Այս հայեցակարգը, որը հզորացված է գեներատիվ մոդելավորմամբ, ապահովում է առաջընթացային միջոց՝ հարձակվողների դեմ իրավիճակը շրջելու ՝ օգտագործելով արհեստական բանականության կողմից ուժեղացված խաբեությունը:
Տարբեր ոլորտներում ավելի արագ և խելացի խոցելիությունների կառավարումը նշանակում է ավելի քիչ խախտումներ: Օրինակ՝ առողջապահության տեղեկատվական տեխնոլոգիաների ոլորտում արհեստական բանականությունը կարող է արագորեն հայտնաբերել բժշկական սարքավորման մեջ խոցելի, հնացած գրադարան և պահանջել ներկառուցված ծրագրային ապահովման շտկում, նախքան որևէ հարձակվող կշահագործի այն: Բանկային ոլորտում արհեստական բանականությունը կարող է մոդելավորել ներքին հարձակումը նոր հավելվածի վրա՝ ապահովելու համար, որ հաճախորդների տվյալները մնան անվտանգ բոլոր իրավիճակներում: Այսպիսով, գեներատիվ արհեստական բանականությունը գործում է որպես մանրադիտակ և սթրես-փորձարկիչ կազմակերպությունների անվտանգության դիրքորոշման համար. այն լուսավորում է թաքնված թերությունները և ճնշում է գործադրում համակարգերի վրա երևակայական ձևերով՝ ապահովելու համար դիմադրողականությունը:
Անվտանգ կոդի ստեղծում և ծրագրային ապահովման մշակում
Գեներատիվ արհեստական բանականության (ԱԲ) տաղանդները չեն սահմանափակվում միայն հարձակումների հայտնաբերմամբ. դրանք տարածվում են նաև սկզբից ավելի անվտանգ համակարգեր ստեղծելու : Ծրագրային ապահովման մշակման մեջ ԱԲ կոդի գեներատորները (ինչպիսիք են GitHub Copilot-ը, OpenAI Codex-ը և այլն) կարող են օգնել մշակողներին ավելի արագ գրել կոդ՝ առաջարկելով կոդի հատվածներ կամ նույնիսկ ամբողջական գործառույթներ: Կիբերանվտանգության տեսանկյունից կարևոր է ապահովել, որ ԱԲ-ի կողմից առաջարկվող կոդի այս մասերը անվտանգ լինեն և օգտագործել ԱԲ կոդավորման պրակտիկան բարելավելու համար:
Մի կողմից, գեներատիվ արհեստական բանականությունը կարող է գործել որպես կոդավորման օգնական, որը ներառում է անվտանգության լավագույն փորձը : Մշակողները կարող են գործարկել արհեստական բանականության գործիք՝ «Ստեղծել գաղտնաբառի վերականգնման գործառույթ Python-ում» և, իդեալական դեպքում, ստանալ կոդ, որը ոչ միայն ֆունկցիոնալ է, այլև հետևում է անվտանգության ուղեցույցներին (օրինակ՝ մուտքագրման պատշաճ վավերացում, գրանցում, սխալների մշակում՝ առանց տեղեկատվության արտահոսքի և այլն): Նման օգնականը, որը մարզվել է անվտանգ կոդի լայնածավալ օրինակներով, կարող է օգնել նվազեցնել մարդկային սխալները, որոնք հանգեցնում են խոցելիությունների: Օրինակ, եթե մշակողը մոռանում է մաքրել օգտատիրոջ մուտքագրումը (բացելով դուռը SQL ներարկման կամ նմանատիպ խնդիրների համար), արհեստական բանականությունը կարող է կամ ներառել դա ըստ լռելյայնի, կամ զգուշացնել նրանց: Արհեստական բանականության որոշ կոդավորման գործիքներ այժմ ճշգրտվում են անվտանգության վրա կենտրոնացած տվյալներով՝ հենց այս նպատակին ծառայելու համար՝ ըստ էության, արհեստական բանականության զույգ ծրագրավորում անվտանգության գիտակցության հետ :
Սակայն կա նաև հակառակ կողմը. գեներատիվ արհեստական բանականությունը կարող է նույնքան հեշտությամբ խոցելիություններ ներմուծել, եթե պատշաճ կերպով չկառավարվի: Ինչպես նշել է Sophos-ի անվտանգության փորձագետ Բեն Վերշարենը, կոդավորման համար գեներատիվ արհեստական բանականության օգտագործումը «լավ է կարճ, ստուգելի կոդի համար, բայց ռիսկային է, երբ չստուգված կոդը ինտեգրվում է» արտադրական համակարգերի մեջ: Ռիսկն այն է, որ արհեստական բանականությունը կարող է ստեղծել տրամաբանորեն ճիշտ կոդ, որը անվտանգ չէ այնպիսի ձևերով, որոնք ոչ մասնագետը կարող է չնկատել: Ավելին, չարամիտ գործողները կարող են միտումնավոր ազդել հանրային արհեստական բանականության մոդելների վրա՝ դրանցում ցանելով խոցելի կոդի ձևանմուշներ (տվյալների թունավորման մի ձև), որպեսզի արհեստական բանականությունը առաջարկի անվտանգ կոդ: Մշակողների մեծ մասը անվտանգության մասնագետներ չեն , ուստի եթե արհեստական բանականությունը առաջարկում է հարմար լուծում, նրանք կարող են այն օգտագործել կուրորեն՝ չգիտակցելով, որ այն ունի թերություն ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Այս մտահոգությունը իրական է. իրականում, այժմ կա OWASP-ի լավագույն 10 ցուցակը LLM-ների (մեծ լեզվական մոդելներ) համար, որը ներկայացնում է կոդավորման համար արհեստական բանականության օգտագործման նման տարածված ռիսկերը:
Այս խնդիրների դեմ պայքարելու համար փորձագետները առաջարկում են «պայքարել գեներատիվ արհեստական բանականության դեմ գեներատիվ արհեստական բանականության միջոցով» կոդավորման ոլորտում: Գործնականում դա նշանակում է օգտագործել արհեստական բանականությունը՝ կոդը վերանայելու և փորձարկելու : Արհեստական բանականությունը կարող է շատ ավելի արագ սկանավորել նոր կոդի կոմիտները, քան մարդկային կոդի վերանայողը, և նշել հնարավոր խոցելիությունները կամ տրամաբանական խնդիրները: Մենք արդեն տեսնում ենք գործիքների ի հայտ գալը, որոնք ինտեգրվում են ծրագրային ապահովման մշակման կյանքի ցիկլի մեջ. կոդը գրվում է (գուցե արհեստական բանականության օգնությամբ), այնուհետև անվտանգ կոդի սկզբունքներով մարզված գեներատիվ մոդելը վերանայում է այն և ստեղծում է ցանկացած մտահոգության մասին զեկույց (օրինակ՝ հնացած գործառույթների օգտագործում, բացակայող նույնականացման ստուգումներ և այլն): NVIDIA-ի հետազոտությունը, որը նշվել է ավելի վաղ, որը հասել է կոդում խոցելիությունների 4 անգամ ավելի արագ հայտնաբերման, արհեստական բանականության օգտագործման օրինակ է անվտանգ կոդի վերլուծության համար ( Կիբերանվտանգության մեջ գեներատիվ արհեստական բանականության 6 օգտագործման դեպքեր [+ Օրինակներ] ):
Ավելին, գեներատիվ արհեստական բանականությունը կարող է օգնել ստեղծել անվտանգ կոնֆիգուրացիաներ և սկրիպտներ : Օրինակ, եթե ընկերությունը պետք է տեղակայի անվտանգ ամպային ենթակառուցվածք, ինժեները կարող է խնդրել արհեստական բանականությանը ստեղծել կոնֆիգուրացիայի սկրիպտներ (ենթակառուցվածքը որպես կոդ)՝ ներառելով անվտանգության կառավարման միջոցներ (ինչպիսիք են ցանցի պատշաճ սեգմենտավորումը, IAM դերերի նվազագույն արտոնությունները): Հազարավոր նման կոնֆիգուրացիաների վրա մարզված արհեստական բանականությունը կարող է ստեղծել բազային գիծ, որը ինժեները հետո ճշգրտում է: Սա արագացնում է համակարգերի անվտանգ կարգավորումը և նվազեցնում է սխալ կոնֆիգուրացիայի սխալները, որոնք ամպային անվտանգության միջադեպերի տարածված աղբյուր են:
Որոշ կազմակերպություններ նաև օգտագործում են գեներատիվ արհեստական բանականությունը՝ անվտանգ կոդավորման ձևերի գիտելիքների բազան պահպանելու համար: Եթե մշակողը վստահ չէ, թե ինչպես անվտանգ կերպով ներդնել որոշակի գործառույթ, նա կարող է հարցում ուղարկել ներքին արհեստական բանականությանը, որը սովորել է ընկերության անցյալ նախագծերից և անվտանգության ուղեցույցներից: Արհեստական բանականությունը կարող է վերադարձնել առաջարկվող մոտեցում կամ նույնիսկ կոդի հատված, որը համապատասխանում է ինչպես ֆունկցիոնալ պահանջներին, այնպես էլ ընկերության անվտանգության չափորոշիչներին: Այս մոտեցումն օգտագործվել է այնպիսի գործիքների կողմից, ինչպիսին է Secureframe-ի հարցաթերթիկի ավտոմատացումը , որը պատասխաններ է վերցնում ընկերության քաղաքականությունից և անցյալ լուծումներից՝ հետևողական և ճշգրիտ պատասխաններ ապահովելու համար (ըստ էության՝ անվտանգ փաստաթղթեր ստեղծելով) ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակներ ): Հայեցակարգը թարգմանվում է որպես կոդավորում. արհեստական բանականություն, որը «հիշում է», թե ինչպես եք նախկինում անվտանգ կերպով ինչ-որ բան ներդրել և ուղղորդում է ձեզ դա կրկին անել:
Ամփոփելով՝ գեներատիվ արհեստական բանականությունը (AI) ազդում է ծրագրային ապահովման մշակման վրա՝ անվտանգ կոդավորման օգնությունն ավելի հասանելի դարձնելով ։ Այն ոլորտները, որոնք մշակում են մեծ քանակությամբ անհատականացված ծրագրային ապահովում՝ տեխնոլոգիական, ֆինանսական, պաշտպանական և այլն, կարող են օգտվել արհեստական բանականության օգնականներից, որոնք ոչ միայն արագացնում են կոդավորումը, այլև գործում են որպես մշտապես զգոն անվտանգության վերանայողներ։ Ճիշտ կառավարման դեպքում այս արհեստական բանականության գործիքները կարող են նվազեցնել նոր խոցելիությունների ներթափանցումը և օգնել մշակող թիմերին հետևել լավագույն փորձին, նույնիսկ եթե թիմը չունի անվտանգության մասնագետ յուրաքանչյուր քայլում։ Արդյունքը ծրագրային ապահովում է, որն առաջին օրվանից ավելի դիմացկուն է հարձակումների նկատմամբ։
Միջադեպերի արձագանքման աջակցություն
Երբ տեղի է ունենում կիբերանվտանգության միջադեպ՝ լինի դա վնասակար ծրագրերի բռնկում, տվյալների արտահոսք, թե հարձակման հետևանքով համակարգի անջատում, ժամանակը կարևորագույն դեր է խաղում: Գեներացնող արհեստական բանականությունը (ԱԲ) ավելի ու ավելի հաճախ է օգտագործվում միջադեպերին արձագանքման (ԱԱ) թիմերին աջակցելու ՝ միջադեպերը ավելի արագ զսպելու և վերացնելու համար՝ ձեռքի տակ ունենալով ավելի շատ տեղեկատվություն: Գաղափարն այն է, որ ԱԲ-ն կարող է կրել միջադեպի ընթացքում հետաքննության և փաստաթղթավորման բեռի մի մասը և նույնիսկ առաջարկել կամ ավտոմատացնել որոշ արձագանքման գործողություններ:
Արհեստական բանականության (ԱԲ) հիմնական դերերից մեկը իրական ժամանակում միջադեպերի վերլուծությունն ու ամփոփումն : Միջադեպի ընթացքում արձագանքողներին կարող են անհրաժեշտ լինել պատասխաններ այնպիսի հարցերի, ինչպիսիք են՝ «Ինչպե՞ս է հարձակվողը ներխուժել» , «Ո՞ր համակարգերն են տուժել» և «Ի՞նչ տվյալներ կարող են վտանգվել» : Գեներատիվ ԱԲ-ն կարող է վերլուծել տուժած համակարգերից ստացված գրանցամատյանները, ահազանգերը և դատաբժշկական տվյալները և արագորեն տրամադրել պատկերացումներ: Օրինակ՝ Microsoft Security Copilot-ը թույլ է տալիս միջադեպերի արձագանքողին մուտքագրել տարբեր ապացույցներ (ֆայլեր, URL-ներ, իրադարձությունների գրանցամատյաններ) և խնդրել ժամանակացույց կամ ամփոփում ( Microsoft Security Copilot-ը կիբերանվտանգության համար նախատեսված GPT-4 ԱԲ նոր օգնական է | The Verge ): ԱԲ-ն կարող է պատասխանել հետևյալ կերպ. «Հարձակումը, հավանաբար, սկսվել է JohnDoe օգտատիրոջը ժամը 10:53 GMT-ին ուղարկված ֆիշինգային էլ.փոստով, որը պարունակում էր X վնասակար ծրագիր: Գործարկվելուց հետո վնասակար ծրագիրը ստեղծել է հետին դուռ, որը երկու օր անց օգտագործվել է ֆինանսական սերվեր տեղափոխվելու համար, որտեղ այն հավաքել է տվյալներ»: Այս ամբողջական պատկերը րոպեների ընթացքում ունենալը, այլ ոչ թե ժամերի, թույլ է տալիս թիմին շատ ավելի արագ կայացնել տեղեկացված որոշումներ (օրինակ՝ որ համակարգերն մեկուսացնել):
Գեներատիվ արհեստական բանականությունը կարող է նաև առաջարկել զսպման և վերականգնման գործողություններ : Օրինակ, եթե վերջնակետը վարակվում է փրկագին պահանջող ծրագրով, արհեստական բանականության գործիքը կարող է ստեղծել սկրիպտ կամ հրահանգների հավաքածու՝ այդ մեքենան մեկուսացնելու, որոշակի հաշիվներ անջատելու և firewall-ում հայտնի վնասակար IP-ները արգելափակելու համար՝ ըստ էության, խաղի կանոնների կատարման գործընթաց: Palo Alto Networks-ը նշում է, որ գեներատիվ արհեստական բանականությունը կարող է «ստեղծել համապատասխան գործողություններ կամ սկրիպտներ՝ հիմնվելով միջադեպի բնույթի վրա» , ավտոմատացնելով արձագանքման սկզբնական քայլերը ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ): Այն դեպքում, երբ անվտանգության թիմը ծանրաբեռնված է (ասենք՝ հարյուրավոր սարքերի վրա լայնածավալ հարձակում), արհեստական բանականությունը կարող է նույնիսկ ուղղակիորեն կատարել այս գործողություններից մի քանիսը նախապես հաստատված պայմաններում՝ գործելով որպես անխոնջ աշխատող կրտսեր արձագանքող: Օրինակ, արհեստական բանականության գործակալը կարող է ավտոմատ կերպով վերականգնել այն հավատարմագրերը, որոնք, իր կարծիքով, խախտվել են, կամ կարանտինի մեջ դնել այն հոսթերը, որոնք ցուցաբերում են միջադեպի պրոֆիլին համապատասխանող վնասակար գործունեություն:
Միջադեպին արձագանքման ընթացքում հաղորդակցությունը կենսական նշանակություն ունի՝ թե՛ թիմի ներսում, թե՛ շահագրգիռ կողմերի հետ: Ստեղծագործական արհեստական բանականությունը կարող է օգնել՝ միջադեպերի թարմացման զեկույցներ կամ համառոտագրեր կազմելով անմիջապես : Փոխանակ ինժեների, որը դադարեցնում է խնդիրների լուծումը՝ էլեկտրոնային փոստով թարմացում գրելու համար, նրանք կարող են հարցնել արհեստական բանականությանը. «Ամփոփեք, թե ինչ է տեղի ունեցել այս միջադեպի հետ կապված մինչև այժմ՝ ղեկավարներին տեղեկացնելու համար»: Արհեստական բանականությունը, միջադեպի տվյալները կլանելով, կարող է կազմել համառոտ ամփոփում. «Ժամը 15:00-ի դրությամբ հարձակվողները մուտք են գործել 2 օգտատիրոջ հաշիվների և 5 սերվերների: Տուժած տվյալները ներառում են X տվյալների բազայի հաճախորդների գրառումները: Զսպման միջոցառումներ. կոտրված հաշիվների VPN մուտքը չեղարկվել է, և սերվերները մեկուսացվել են: Հաջորդ քայլերը՝ սկանավորել ցանկացած կայուն մեխանիզմ»: Այնուհետև պատասխանողը կարող է արագ ստուգել կամ փոփոխել սա և ուղարկել այն՝ ապահովելով, որ շահագրգիռ կողմերը տեղեկացված լինեն ճշգրիտ, թարմացված տեղեկատվությամբ:
Երբ իրավիճակը հանդարտվում է, սովորաբար անհրաժեշտ է մանրամասն միջադեպի մասին զեկույց պատրաստել և դասեր քաղել։ Սա ևս մեկ ոլորտ է, որտեղ արհեստական բանականության աջակցությունը փայլում է։ Այն կարող է վերանայել միջադեպի բոլոր տվյալները և ստեղծել միջադեպից հետո զեկույց, որը ներառում է արմատական պատճառը, ժամանակագրությունը, ազդեցությունը և առաջարկությունները։ Օրինակ՝ IBM-ը ինտեգրում է գեներատիվ արհեստական բանականությունը՝ մեկ կոճակի սեղմումով «անվտանգության դեպքերի և միջադեպերի պարզ ամփոփագրեր ստեղծելու համար, որոնք կարող են կիսվել շահագրգիռ կողմերի հետ» Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ։ 10 իրական աշխարհի օրինակներ )։ Հետգործողությունից հետո հաշվետվությունների արդյունավետության բարձրացման միջոցով կազմակերպությունները կարող են ավելի արագ իրականացնել բարելավումներ և նաև ունենալ ավելի լավ փաստաթղթավորում համապատասխանության նպատակներով։
Առաջադեմ կիրառություններից մեկը արհեստական բանականության միջոցով իրականացվող միջադեպերի սիմուլյացիաներն : Նման այն եղանակին, թե ինչպես կարելի է հրդեհի դեմ պայքարի վարժանք անցկացնել, որոշ ընկերություններ օգտագործում են գեներատիվ արհեստական բանականություն՝ «ինչ կլիներ, եթե» միջադեպերի սցենարները մշակելու համար: Արհեստական բանականությունը կարող է մոդելավորել, թե ինչպես կարող է տարածվել փրկագին պահանջող ծրագիրը՝ հաշվի առնելով ցանցի դասավորությունը, կամ ինչպես կարող է ներքին անձը արտահոսել տվյալներ, ապա գնահատել ներկայիս արձագանքման ծրագրերի արդյունավետությունը: Սա օգնում է թիմերին պատրաստել և կատարելագործել խաղի կանոնները՝ նախքան իրական միջադեպի տեղի ունենալը: Դա նման է անընդհատ կատարելագործվող միջադեպերին արձագանքման խորհրդատու ունենալուն, որը անընդհատ ստուգում է ձեր պատրաստվածությունը:
Բարձր ռիսկային ոլորտներում, ինչպիսիք են ֆինանսները կամ առողջապահությունը, որտեղ միջադեպերի պատճառով դադարները կամ տվյալների կորուստը հատկապես թանկ են, արհեստական բանականության վրա հիմնված այս IR հնարավորությունները շատ գրավիչ են: Կիբերմիջադեպի ենթարկված հիվանդանոցը չի կարող թույլ տալ երկարատև համակարգի անջատումներ. արհեստական բանականությունը, որը արագորեն օգնում է զսպմանը, կարող է բառացիորեն կյանք փրկել: Նմանապես, ֆինանսական հաստատությունը կարող է օգտագործել արհեստական բանականությունը՝ ժամը 3-ին կասկածելի խարդախության ներխուժման նախնական տեսակավորումը կատարելու համար, որպեսզի մինչև հերթապահ մարդիկ առցանց լինեն, արդեն շատ նախնական աշխատանքներ (ազդված հաշիվներից դուրս գրվելը, գործարքների արգելափակումը և այլն) կատարված լինեն: Միջադեպերին արձագանքման թիմերը գեներատիվ արհեստական բանականությամբ համալրելով ՝ կազմակերպությունները կարող են զգալիորեն կրճատել արձագանքման ժամանակը և բարելավել դրանց մշակման մանրակրկիտությունը, ի վերջո մեղմելով կիբերմիջադեպերից առաջացած վնասը:
Վարքային վերլուծություն և անոմալիաների հայտնաբերում
Շատ կիբեռհարձակումներ կարելի է հայտնաբերել՝ նկատելով, թե երբ ինչ-որ բան շեղվում է «նորմալ» վարքից՝ լինի դա օգտատիրոջ հաշվի կողմից անսովոր քանակությամբ տվյալների ներբեռնում, թե ցանցային սարքի կողմից անծանոթ հոսթի հետ հանկարծակի կապ հաստատելը: Գեներատիվ արհեստական բանականությունը (Generative AI) առաջարկում է վարքային վերլուծության և անոմալիաների հայտնաբերման ՝ ուսումնասիրելով օգտատերերի և համակարգերի նորմալ օրինաչափությունները, ապա նշելով, երբ ինչ-որ բան անհամապատասխան է թվում:
Ավանդական անոմալիաների հայտնաբերումը հաճախ օգտագործում է վիճակագրական շեմեր կամ պարզ մեքենայական ուսուցում որոշակի չափանիշների վրա (պրոցեսորային օգտագործման կտրուկ աճ, մուտք անսովոր ժամերին և այլն): Գեներատիվ արհեստական բանականությունը կարող է սա առաջ տանել՝ ստեղծելով վարքի ավելի նրբերանգային պրոֆիլներ: Օրինակ, արհեստական բանականության մոդելը կարող է ժամանակի ընթացքում ընկալել աշխատակցի մուտքերը, ֆայլերին մուտք գործելու ձևերը և էլ. փոստի սովորությունները և ձևավորել այդ օգտատիրոջ «նորմալի» բազմաչափ ըմբռնում: Եթե այդ հաշիվը հետագայում կտրուկ կերպով դուրս է գալիս իր նորմայից (օրինակ՝ մուտք գործել նոր երկրից և կեսգիշերին մուտք գործել մարդկային ռեսուրսների ֆայլերի հավաքածու), արհեստական բանականությունը կհայտնաբերի շեղում ոչ միայն մեկ չափանիշի, այլև ամբողջ վարքագծի ձևի վրա, որը չի համապատասխանում օգտատիրոջ պրոֆիլին: Տեխնիկական առումով, գեներատիվ մոդելները (ինչպիսիք են ավտոմատ կոդավորիչները կամ հաջորդականության մոդելները) կարող են մոդելավորել, թե ինչ տեսք ունի «նորմալը», ապա ստեղծել վարքի սպասվող միջակայք: Երբ իրականությունը դուրս է գալիս այդ միջակայքից, այն նշվում է որպես անոմալիա ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ):
Գործնական կիրառություններից մեկը ցանցային երթևեկության մոնիթորինգն : 2024 թվականի հարցման համաձայն, ԱՄՆ կազմակերպությունների 54%-ը ցանցային երթևեկության մոնիթորինգը նշել է որպես կիբերանվտանգության ոլորտում արհեստական բանականության ( Հյուսիսային Ամերիկա. կիբերանվտանգության ոլորտում արհեստական բանականության օգտագործման լավագույն դեպքերը աշխարհում 2024 թվականին ): Գեներացնող արհեստական բանականությունը կարող է սովորել ձեռնարկության ցանցի նորմալ հաղորդակցման օրինաչափությունները՝ որ սերվերներն են սովորաբար շփվում միմյանց հետ, ինչ ծավալի տվյալներ են տեղափոխվում աշխատանքային ժամերի ընթացքում՝ համեմատած գիշերային ժամերի հետ, և այլն: Եթե հարձակվողը սկսի տվյալներ արտահոսել սերվերից, նույնիսկ դանդաղ՝ հայտնաբերումից խուսափելու համար, արհեստական բանականության վրա հիմնված համակարգը կարող է նկատել, որ «սերվեր A-ն երբեք ժամը 2-ին 500 ՄԲ տվյալներ չի ուղարկում արտաքին IP հասցեին» և ահազանգ տալ: Քանի որ արհեստական բանականությունը ոչ միայն օգտագործում է ստատիկ կանոններ, այլև ցանցային վարքագծի զարգացող մոդել, այն կարող է բռնել նուրբ անոմալիաներ, որոնք ստատիկ կանոնները (օրինակ՝ «ահազանգ, եթե տվյալները > X ՄԲ») կարող են բաց թողնել կամ սխալմամբ նշել: Այս հարմարվողական բնույթն է, որը արհեստական բանականության վրա հիմնված անոմալիաների հայտնաբերումը դարձնում է հզոր այնպիսի միջավայրերում, ինչպիսիք են բանկային գործարքների ցանցերը, ամպային ենթակառուցվածքները կամ IoT սարքերի նավատորմը, որտեղ նորմալի և աննորմալի համար ֆիքսված կանոնների սահմանումը չափազանց բարդ է:
Գեներատիվ արհեստական բանականությունը (ԱԲ) նաև օգնում է օգտատիրոջ վարքագծի վերլուծությանը (ԱԲՎ) , որը կարևոր է ներքին սպառնալիքների կամ վարկաբեկված հաշիվների հայտնաբերման համար: Յուրաքանչյուր օգտատիրոջ կամ կազմակերպության բազային տվյալներ ստեղծելով՝ ԱԲ-ն կարող է հայտնաբերել այնպիսի բաներ, ինչպիսիք են վկայագրերի չարաշահումը: Օրինակ, եթե հաշվապահական հաշվառման բաժնի աշխատակից Բոբը հանկարծակի սկսում է հարցումներ կատարել հաճախորդների տվյալների բազայում (ինչը նա երբեք չի արել), Բոբի վարքագծի ԱԲ մոդելը կնշի սա որպես անսովոր: Հնարավոր է՝ դա վնասակար ծրագիր չէ. հնարավոր է՝ Բոբի վկայագրերը գողացվել և օգտագործվել են հարձակվողի կողմից, կամ Բոբը փորձում է ստուգել այնտեղ, որտեղ չպետք է: Ամեն դեպքում, անվտանգության թիմը նախապես տեղեկացվում է հետաքննության համար: Նման ԱԲՎ համակարգեր գոյություն ունեն տարբեր անվտանգության արտադրանքներում, և գեներատիվ մոդելավորման տեխնիկաները բարձրացնում են դրանց ճշգրտությունը և նվազեցնում կեղծ տագնապները՝ հաշվի առնելով համատեքստը (գուցե Բոբը գտնվում է հատուկ նախագծում և այլն, ինչը ԱԲ-ն երբեմն կարող է եզրակացնել այլ տվյալներից):
Անձնագրերի և մուտքի կառավարման ոլորտում խորը կեղծիքների հայտնաբերումը աճող պահանջարկ է. գեներատիվ արհեստական բանականությունը կարող է ստեղծել սինթետիկ ձայներ և տեսանյութեր, որոնք խաբում են կենսաչափական անվտանգությունը: Հետաքրքիր է, որ գեներատիվ արհեստական բանականությունը կարող է նաև օգնել հայտնաբերել այս խորը կեղծիքները՝ վերլուծելով աուդիո կամ վիդեո նյութերի նուրբ արտեֆակտները, որոնք մարդկանց համար դժվար է նկատել: Մենք տեսանք Accenture-ի օրինակը, որն օգտագործեց գեներատիվ արհեստական բանականություն՝ անթիվ դեմքի արտահայտություններ և պայմաններ մոդելավորելու համար՝ մարզելու ՝ իրական օգտատերերին արհեստական բանականության կողմից ստեղծված խորը կեղծիքներից տարբերակելու համար: Հինգ տարվա ընթացքում այս մոտեցումը օգնեց Accenture-ին վերացնել գաղտնաբառերը իր համակարգերի 90%-ի համար (անցնելով կենսաչափականության և այլ գործոնների) և 60%-ով կրճատել հարձակումները ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Ըստ էության, նրանք օգտագործեցին գեներատիվ արհեստական բանականությունը՝ կենսաչափական նույնականացումը ամրապնդելու համար, դարձնելով այն դիմացկուն գեներատիվ հարձակումների նկատմամբ (արհեստական բանականության դեմ պայքարի հիանալի օրինակ): Այս տեսակի վարքային մոդելավորումը՝ այս դեպքում կենդանի մարդու դեմքի և արհեստական բանականության կողմից սինթեզված դեմքի միջև տարբերությունը ճանաչելը, կարևոր է, քանի որ մենք ավելի շատ ենք ապավինում արհեստական բանականությանը նույնականացման գործում:
Գեներատիվ արհեստական բանականության կողմից ապահովվող անոմալիաների հայտնաբերումը կիրառելի է բոլոր ոլորտներում. առողջապահության մեջ՝ բժշկական սարքավորումների վարքագծի մոնիթորինգ՝ հաքերության նշանների հայտնաբերման համար, ֆինանսների մեջ՝ առևտրային համակարգերի մոնիթորինգ՝ անկանոն օրինաչափությունների հայտնաբերման համար, որոնք կարող են վկայել խարդախության կամ ալգորիթմական մանիպուլյացիայի մասին, էներգետիկայի/կոմունալ ծառայությունների ոլորտում՝ կառավարման համակարգի ազդանշանների դիտարկում՝ ներխուժման նշանների հայտնաբերման համար: Գեներատիվ լայնության (վարքագծի բոլոր ասպեկտների դիտարկում) և խորության (բարդ օրինաչափությունների հասկացում) համադրությունը այն դարձնում է հզոր գործիք կիբեռմիջադեպի ասեղը խոտի մեջ հայտնաբերելու համար: Քանի որ սպառնալիքները դառնում են ավելի թաքնված, թաքնվում են սովորական գործողությունների մեջ, «նորմալը» ճշգրիտ բնութագրելու և ինչ-որ բան շեղվելու դեպքում գոռալու այս ունակությունը դառնում է կենսականորեն կարևոր: Այսպիսով, գեներատիվ արհեստական բանականությունը ծառայում է որպես անխոնջ պահակ, որը միշտ սովորում և թարմացնում է նորմալության իր սահմանումը՝ միջավայրի փոփոխություններին համընթաց քայլելու համար, և անվտանգության թիմերին տեղեկացնում է այն անոմալիաների մասին, որոնք պահանջում են ավելի մանրակրկիտ ուսումնասիրություն:
Գեներատիվ արհեստական բանականության հնարավորություններն ու առավելությունները կիբերանվտանգության մեջ
Գեներատիվ արհեստական բանականության կիրառումը կիբերանվտանգության մեջ բազմաթիվ հնարավորություններ և առավելություններ այս գործիքները կիրառել ցանկացող կազմակերպություններին: Ստորև մենք ամփոփում ենք այն հիմնական առավելությունները, որոնք գեներատիվ արհեստական բանականությունը դարձնում են կիբերանվտանգության ծրագրերին հրապուրիչ լրացում.
-
Ավելի արագ սպառնալիքների հայտնաբերում և արձագանք. Գեներացնող արհեստական բանականության համակարգերը կարող են իրական ժամանակում վերլուծել տվյալների հսկայական քանակություն և շատ ավելի արագ ճանաչել սպառնալիքները, քան ձեռքով մարդկային վերլուծությունը: Այս արագության առավելությունը նշանակում է հարձակումների ավելի վաղ հայտնաբերում և միջադեպերի ավելի արագ զսպում: Գործնականում, արհեստական բանականության վրա հիմնված անվտանգության մոնիթորինգը կարող է հայտնաբերել սպառնալիքներ, որոնց կապը մարդկանցից շատ ավելի երկար ժամանակ կպահանջվեր: Միջադեպերին արագ արձագանքելով (կամ նույնիսկ ինքնուրույն կատարելով նախնական արձագանքները), կազմակերպությունները կարող են զգալիորեն կրճատել հարձակվողների իրենց ցանցերում մնալու ժամանակը, նվազագույնի հասցնելով վնասը:
-
Բարելավված ճշգրտություն և սպառնալիքների ծածկույթ. Քանի որ նրանք անընդհատ սովորում են նոր տվյալներից, գեներատիվ մոդելները կարող են հարմարվել զարգացող սպառնալիքներին և հայտնաբերել չարամիտ գործունեության ավելի նուրբ նշաններ: Սա հանգեցնում է հայտնաբերման ճշգրտության բարելավման (ավելի քիչ կեղծ բացասական և կեղծ դրական արդյունքներ)՝ համեմատած ստատիկ կանոնների հետ: Օրինակ, արհեստական ինտելեկտը, որը սովորել է ֆիշինգային էլ.փոստի կամ վնասակար ծրագրի վարքագծի առանձնահատկությունները, կարող է նույնականացնել այնպիսի տարբերակներ, որոնք նախկինում երբեք չեն նկատվել: Արդյունքը սպառնալիքների տեսակների ավելի լայն ծածկույթ է, այդ թվում՝ նոր հարձակումների, ինչը ամրապնդում է ընդհանուր անվտանգության դիրքը: Անվտանգության թիմերը նաև մանրամասն պատկերացում են ստանում արհեստական ինտելեկտի վերլուծությունից (օրինակ՝ վնասակար ծրագրի վարքագծի բացատրություններ), ինչը հնարավորություն է տալիս ավելի ճշգրիտ և թիրախային պաշտպանություններ ապահովել ( Ի՞նչ է գեներատիվ արհեստական ինտելեկտը կիբերանվտանգության մեջ - Palo Alto Networks ):
-
Կրկնվող առաջադրանքների ավտոմատացում. Գեներատիվ արհեստական բանականությունը գերազանց է ավտոմատացնում առօրյա, աշխատատար անվտանգության առաջադրանքները՝ սկսած գրանցամատյանների ուսումնասիրությունից և հաշվետվությունների կազմումից մինչև միջադեպերի արձագանքման սցենարների գրումը: Այս ավտոմատացումը նվազեցնում է մարդ-վերլուծաբանների բեռը ՝ ազատելով նրանց կենտրոնանալու բարձր մակարդակի ռազմավարության և բարդ որոշումների կայացման վրա ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ): Առօրյա, բայց կարևոր աշխատանքները, ինչպիսիք են խոցելիությունների սկանավորումը, կոնֆիգուրացիայի աուդիտը, օգտագործողի գործունեության վերլուծությունը և համապատասխանության մասին հաշվետվությունը, կարող են կարգավորվել (կամ առնվազն առաջին անգամ մշակվել) արհեստական բանականության կողմից: Այս առաջադրանքները մեքենայի արագությամբ կատարելով՝ արհեստական բանականությունը ոչ միայն բարելավում է արդյունավետությունը, այլև նվազեցնում է մարդկային սխալները (խախտումների կարևոր գործոն):
-
Նախաձեռնողական պաշտպանություն և սիմուլյացիա. Գեներացնող արհեստական բանականությունը թույլ է տալիս կազմակերպություններին անցում կատարել ռեակտիվից նախաձեռնողական անվտանգության: Հարձակման սիմուլյացիայի, սինթետիկ տվյալների ստեղծման և սցենարների վրա հիմնված ուսուցման նման տեխնիկաների միջոցով պաշտպանները կարող են կանխատեսել և պատրաստվել սպառնալիքներին, նախքան դրանք իրական աշխարհում իրականանալը: Անվտանգության թիմերը կարող են մոդելավորել կիբերհարձակումները (ֆիշինգային արշավներ, վնասակար ծրագրերի բռնկումներ, DDoS և այլն) անվտանգ միջավայրերում՝ իրենց արձագանքները ստուգելու և թույլ կողմերը ամրագրելու համար: Այս շարունակական ուսուցումը, որը հաճախ անհնար է մանրակրկիտ կերպով անել միայն մարդկային ջանքերով, պահպանում է պաշտպանությունը սուր և արդիական: Այն նման է կիբեր «հրդեհային վարժանքի». արհեստական բանականությունը կարող է բազմաթիվ հիպոթետիկ սպառնալիքներ նետել ձեր պաշտպանության վրա, որպեսզի դուք կարողանաք մարզվել և կատարելագործվել:
-
Մարդկային փորձագիտության բարձրացում (արհեստական բանականությունը որպես ուժի բազմապատկիչ). Գեներատիվ արհեստական բանականությունը գործում է որպես անխոնջ կրտսեր վերլուծաբան, խորհրդատու և օգնական՝ միավորված մեկ ամբողջության մեջ: Այն կարող է թիմի ավելի քիչ փորձառու անդամներին տրամադրել ուղղորդում և առաջարկություններ, որոնք սովորաբար ակնկալվում են փորձառու մասնագետներից, արդյունավետորեն ժողովրդավարացնելով փորձը թիմում ( Գեներատիվ արհեստական բանականության 6 օգտագործման դեպք կիբերանվտանգության մեջ [+ օրինակներ] ): Սա հատկապես արժեքավոր է կիբերանվտանգության ոլորտում տաղանդների պակասի պատճառով. արհեստական բանականությունը օգնում է փոքր թիմերին ավելին անել՝ ավելի քիչ ծախսերով: Մյուս կողմից, փորձառու վերլուծաբանները օգտվում են արհեստական բանականությունից՝ կատարելով ծանր աշխատանք և ի հայտ բերելով ոչ ակնհայտ պատկերացումներ, որոնք նրանք կարող են ստուգել և գործել: Ընդհանուր արդյունքը շատ ավելի արդյունավետ և կարող անվտանգության թիմ է, որտեղ արհեստական բանականությունը ուժեղացնում է յուրաքանչյուր մարդկային անդամի ազդեցությունը ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ ):
-
Բարելավված որոշումների աջակցություն և հաշվետվություն. Տեխնիկական տվյալները բնական լեզվի վերածելով՝ գեներատիվ արհեստական բանականությունը բարելավում է հաղորդակցությունը և որոշումների կայացումը: Անվտանգության ոլորտի ղեկավարները արհեստական բանականության կողմից ստեղծված ամփոփագրերի միջոցով ավելի հստակ պատկերացում են ստանում խնդիրների մասին և կարող են տեղեկացված ռազմավարական որոշումներ կայացնել՝ առանց նախնական տվյալները վերլուծելու անհրաժեշտության: Նմանապես, միջֆունկցիոնալ հաղորդակցությունը (ղեկավարների, համապատասխանության պատասխանատուների և այլնի հետ) բարելավվում է, երբ արհեստական բանականությունը պատրաստում է անվտանգության իրավիճակի և միջադեպերի մասին հեշտ հասկանալի հաշվետվություններ ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): Սա ոչ միայն վստահություն և համաձայնություն է ստեղծում անվտանգության հարցերի շուրջ ղեկավարության մակարդակում, այլև օգնում է արդարացնել ներդրումներն ու փոփոխությունները՝ հստակ ձևակերպելով ռիսկերը և արհեստական բանականության կողմից հայտնաբերված բացերը:
Այս առավելությունների համադրությունը նշանակում է, որ կիբերանվտանգության մեջ գեներատիվ արհեստական բանականությունն օգտագործող կազմակերպությունները կարող են հասնել ավելի ուժեղ անվտանգության դիրքի՝ հնարավոր է՝ ավելի ցածր շահագործման ծախսերով։ Նրանք կարող են արձագանքել նախկինում ճնշող սպառնալիքներին, ծածկել անվերահսկելի մնացած բացերը և անընդհատ կատարելագործվել արհեստական բանականության կողմից ղեկավարվող հետադարձ կապի օղակների միջոցով։ Վերջին հաշվով, գեներատիվ արհեստական բանականությունը հնարավորություն է տալիս առաջ անցնել հակառակորդներից՝ արագությունը, մասշտաբը և բարդությունը նույնքան բարդ պաշտպանության հետ։ Ինչպես ցույց է տվել մեկ հարցում, բիզնեսի և կիբերառաջնորդների կեսից ավելին ակնկալում է սպառնալիքների ավելի արագ հայտնաբերում և ճշգրտության բարձրացում գեներատիվ արհեստական բանականության օգտագործման միջոցով ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Գեներատիվ արհեստական բանականություն կիբերանվտանգության մեջ. Իրավագիտության համապարփակ վերանայում ... )՝ վկայելով այս տեխնոլոգիաների առավելությունների շուրջ լավատեսության մասին։
Կիբերանվտանգության մեջ գեներատիվ արհեստական բանականության կիրառման ռիսկերն ու մարտահրավերները
Թեև հնարավորությունները նշանակալի են, կարևոր է կիբերանվտանգության ոլորտում գեներատիվ արհեստական բանականությանը մոտենալ՝ բաց աչքերով նկատի ունենալով ռիսկերն ու մարտահրավերները : Արհեստական բանականությանը կուրորեն վստահելը կամ դրա չարաշահումը կարող է նոր խոցելիություններ առաջացնել: Ստորև մենք ներկայացնում ենք հիմնական մտահոգություններն ու թակարդները՝ յուրաքանչյուրի համատեքստի հետ միասին.
-
Կիբերհանցագործների կողմից հակառակորդական օգտագործում. Նույն գեներատիվ հնարավորությունները, որոնք օգնում են պաշտպաններին, կարող են հզորացնել հարձակվողներին: Սպառնալիք առաջացնող անձինք արդեն օգտագործում են գեներատիվ արհեստական բանականություն՝ ավելի համոզիչ ֆիշինգային էլեկտրոնային նամակներ ստեղծելու, կեղծ կերպարներ և խորը կեղծ տեսանյութեր ստեղծելու, անընդհատ փոփոխվող պոլիմորֆ վնասակար ծրագրեր մշակելու, որոնք խուսափում են հայտնաբերումից, և նույնիսկ հաքերության ասպեկտները ավտոմատացնելու համար ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ): Կիբերանվտանգության ոլորտի ղեկավարների գրեթե կեսը (46%) մտահոգված է, որ գեներատիվ արհեստական բանականությունը կհանգեցնի ավելի առաջադեմ հակառակորդական հարձակումների ( Գեներատիվ արհեստական բանականության անվտանգություն. միտումներ, սպառնալիքներ և մեղմացման ռազմավարություններ ): Այս «արհեստական բանականության սպառազինությունների մրցավազքը» նշանակում է, որ երբ պաշտպանները կիրառում են արհեստական բանականությունը, հարձակվողները շատ հետ չեն մնա (փաստորեն, նրանք կարող են որոշ ոլորտներում առաջ լինել՝ օգտագործելով չկարգավորվող արհեստական բանականության գործիքներ): Կազմակերպությունները պետք է պատրաստ լինեն արհեստական բանականության կողմից ուժեղացված սպառնալիքներին, որոնք ավելի հաճախակի են, բարդ և դժվար է հետևել:
-
Արհեստական բանականության հալյուցինացիաներ և անճշտություն. հավանական, բայց սխալ կամ մոլորեցնող արդյունքներ ՝ մի երևույթ, որը հայտնի է որպես հալյուցինացիա: Անվտանգության համատեքստում արհեստական բանականությունը կարող է վերլուծել միջադեպը և սխալմամբ եզրակացնել, որ պատճառը որոշակի խոցելիություն է եղել, կամ կարող է ստեղծել թերի շտկման սցենար, որը չի կարողանում զսպել հարձակումը: Այս սխալները կարող են վտանգավոր լինել, եթե ընդունվեն ըստ էության: Ինչպես NTT Data-ն զգուշացնում է. «գեներատիվ արհեստական բանականությունը կարող է հավանականորեն արտածել իրականությանը չհամապատասխանող բովանդակություն, և այս երևույթը կոչվում է հալյուցինացիաներ… ներկայումս դժվար է դրանք ամբողջությամբ վերացնել» ( Գեներատիվ արհեստական բանականության և հակազդեցությունների անվտանգության ռիսկերը և դրա ազդեցությունը կիբերանվտանգության վրա | NTT DATA Group ): Արհեստական բանականության վրա չափազանց կախվածությունը առանց ստուգման կարող է հանգեցնել սխալ ուղղված ջանքերի կամ անվտանգության կեղծ զգացողության: Օրինակ, արհեստական բանականությունը կարող է սխալմամբ նշել կարևորագույն համակարգը որպես անվտանգ, մինչդեռ այն անվտանգ չէ, կամ հակառակը, խուճապ առաջացնել՝ «հայտնաբերելով» այնպիսի խախտում, որը երբեք տեղի չի ունեցել: Արհեստական բանականության արդյունքների խիստ վավերացումը և մարդկանց կարևոր որոշումների կայացման գործընթացում ներգրավված լինելը կարևոր է այս ռիսկը մեղմելու համար:
-
Կեղծ դրական և բացասական արդյունքներ. Հալյուցինացիաների հետ կապված, եթե արհեստական ինտելեկտի մոդելը վատ է մարզված կամ կարգավորված, այն կարող է չափազանց շատ հաղորդել բարորակ գործունեությունը որպես չարամիտ (կեղծ դրական արդյունքներ) կամ, ավելի վատը, բաց թողնել իրական սպառնալիքները (կեղծ բացասական արդյունքներ) ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական ինտելեկտը կիբերանվտանգության մեջ ): Չափից շատ կեղծ ահազանգերը կարող են ծանրաբեռնել անվտանգության թիմերը և հանգեցնել ահազանգերի հոգնածության (չեղարկելով արհեստական ինտելեկտի կողմից խոստացված արդյունավետության բարձրացումը), մինչդեռ բաց թողնված հայտնաբերումները կազմակերպությունը թողնում են խոցելի: Գեներատիվ մոդելների ճիշտ հավասարակշռության համար կարգավորումը մարտահրավեր է: Յուրաքանչյուր միջավայր եզակի է, և արհեստական ինտելեկտը կարող է անմիջապես օպտիմալ կերպով չգործել: Անընդհատ ուսուցումը նույնպես երկկողմանի սուր է. եթե արհեստական ինտելեկտը սովորում է աղավաղված հետադարձ կապից կամ փոփոխվող միջավայրից, դրա ճշգրտությունը կարող է տատանվել: Անվտանգության թիմերը պետք է վերահսկեն արհեստական ինտելեկտի աշխատանքը և կարգավորեն շեմերը կամ ուղղիչ հետադարձ կապ տրամադրեն մոդելներին: Բարձր ռիսկային համատեքստերում (ինչպես, օրինակ, կարևորագույն ենթակառուցվածքների ներխուժման հայտնաբերումը), խելամիտ կլինի արհեստական ինտելեկտի առաջարկները զուգահեռաբար իրականացնել առկա համակարգերի հետ որոշակի ժամանակահատվածում՝ ապահովելու համար, որ դրանք համապատասխանեն և լրացնում են, այլ ոչ թե հակասում:
-
Տվյալների գաղտնիություն և արտահոսք. Գեներատիվ արհեստական բանականության համակարգերը հաճախ մեծ քանակությամբ տվյալներ են պահանջում ուսուցման և շահագործման համար: Եթե այս մոդելները ամպային են կամ պատշաճ կերպով չեն առանձնացված, կա ռիսկ, որ զգայուն տեղեկատվությունը կարող է արտահոսել: Օգտատերերը կարող են պատահաբար սեփականության իրավունքով պաշտպանված տվյալներ կամ անձնական տվյալներ տրամադրել արհեստական բանականության ծառայությանը (օրինակ՝ խնդրեք ChatGPT-ին ամփոփել գաղտնի միջադեպի մասին զեկույցը), և այդ տվյալները կարող են դառնալ մոդելի գիտելիքների մաս: Իրոք, վերջերս անցկացված ուսումնասիրությունը պարզել է, որ գեներատիվ արհեստական բանականության գործիքներ մուտքագրված տվյալների 55%-ը պարունակում էր զգայուն կամ անձնական տվյալներ , ինչը լուրջ մտահոգություններ է առաջացնում տվյալների արտահոսքի վերաբերյալ ( Գեներատիվ արհեստական բանականության անվտանգություն. միտումներ, սպառնալիքներ և մեղմացման ռազմավարություններ ): Բացի այդ, եթե արհեստական բանականությունը մարզվել է ներքին տվյալների վրա և նրան հարցումներ են ուղարկվել որոշակի եղանակներով, այն կարող է արտահանել ուրիշի: Կազմակերպությունները պետք է իրականացնեն տվյալների մշակման խիստ քաղաքականություն (օրինակ՝ զգայուն նյութերի համար տեղական կամ մասնավոր արհեստական բանականության օրինակներ օգտագործելը) և աշխատակիցներին կրթեն գաղտնի տեղեկատվությունը հանրային արհեստական բանականության գործիքներում չտեղադրելու մասին: Գաղտնիության կանոնակարգերը (GDPR և այլն) նույնպես գործում են. անձնական տվյալների օգտագործումը արհեստական բանականությանը մարզելու համար՝ առանց պատշաճ համաձայնության կամ պաշտպանության, կարող է հակասել օրենքներին:
-
Մոդելի անվտանգություն և մանիպուլյացիա. Գեներատիվ արհեստական բանականության մոդելներն իրենք կարող են դառնալ թիրախներ: Հակառակորդները կարող են փորձել մոդելի թունավորումը ՝ մարզման կամ վերավարժեցման փուլում տրամադրելով չարամիտ կամ մոլորեցնող տվյալներ, որպեսզի արհեստական բանականությունը սովորի սխալ օրինաչափություններ ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ ): Օրինակ, հարձակվողը կարող է աննկատ թունավորել սպառնալիքի մասին ինտելեկտուալ տվյալները, որպեսզի արհեստական բանականությունը չկարողանա ճանաչել հարձակվողի սեփական վնասակար ծրագիրը որպես չարամիտ: Մեկ այլ մարտավարություն է արագ ներարկումը կամ ելքային մանիպուլյացիան , որտեղ հարձակվողը գտնում է միջոց՝ արհեստական բանականությանը մուտքային տվյալներ ուղարկելու, որոնք ստիպում են նրան վարվել չնախատեսված ձևերով՝ գուցե անտեսելով իր անվտանգության պաշտպանիչ պատնեշները կամ բացահայտելով այնպիսի տեղեկատվություն, որը չպետք է (օրինակ՝ ներքին հուշումներ կամ տվյալներ): Բացի այդ, կա մոդելից խուսափելու . հարձակվողները ստեղծում են մուտքային տվյալներ, որոնք հատուկ նախատեսված են արհեստական բանականությունը խաբելու համար: Մենք սա տեսնում ենք հակառակորդական օրինակներում՝ մի փոքր խաթարված տվյալներ, որոնք մարդը համարում է նորմալ, բայց արհեստական բանականությունը սխալ է դասակարգում: Արհեստական բանականության մատակարարման շղթայի անվտանգության ապահովումը (տվյալների ամբողջականություն, մոդելի մուտքի վերահսկողություն, հակառակորդի կայունության թեստավորում) կիբերանվտանգության նոր, բայց անհրաժեշտ մասն է այս գործիքների ներդրման ժամանակ ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ):
-
Չափից շատ կախվածություն և հմտությունների քայքայում. Կա ավելի մեղմ ռիսկ, որ կազմակերպությունները կարող են չափազանց կախված դառնալ արհեստական բանականությունից և թույլ տալ, որ մարդկային հմտությունները ատրոֆիայի ենթարկվեն: Եթե կրտսեր վերլուծաբանները սկսեն կուրորեն վստահել արհեստական բանականության արդյունքներին, նրանք կարող են չզարգացնել քննադատական մտածողությունն ու ինտուիցիան, որոնք անհրաժեշտ են արհեստական բանականության անհասանելիության կամ սխալի դեպքում: Խուսափելու սցենար է անվտանգության թիմը, որն ունի հիանալի գործիքներ, բայց պատկերացում չունի, թե ինչպես գործել, եթե այդ գործիքները խափանվեն (նման է օդաչուների կողմից ավտոպիլոտի չափազանց կախվածությանը): Արհեստական բանականության օգնությանը չհամապատասխանող կանոնավոր մարզումները և այն մտածելակերպի խթանումը, որ արհեստական բանականությունը օգնական է, այլ ոչ թե անսխալական գուշակ, կարևոր են մարդ վերլուծաբաններին սրամիտ պահելու համար: Մարդիկ պետք է մնան վերջնական որոշում կայացնողները, հատկապես մեծ ազդեցություն ունեցող դատողությունների համար:
-
Էթիկական և համապատասխանության մարտահրավերներ. Արհեստական բանականության օգտագործումը կիբերանվտանգության մեջ բարձրացնում է էթիկական հարցեր և կարող է հանգեցնել կարգավորող մարմինների համապատասխանության հետ կապված խնդիրների: Օրինակ, եթե արհեստական բանականության համակարգը անոմալիայի պատճառով սխալմամբ աշխատակցին ներգրավում է որպես չարամիտ ներքին անձ, դա կարող է անարդարացիորեն վնասել այդ անձի հեղինակությանը կամ կարիերային: Արհեստական բանականության կողմից կայացված որոշումները կարող են անթափանց լինել («սև արկղի» խնդիրը), ինչը դժվարացնում է աուդիտորներին կամ կարգավորող մարմիններին բացատրելը, թե ինչու են ձեռնարկվել որոշակի գործողություններ: Քանի որ արհեստական բանականության կողմից ստեղծված բովանդակությունը դառնում է ավելի տարածված, թափանցիկության ապահովումը և հաշվետվողականության պահպանումը կարևորագույն նշանակություն ունեն: Կարգավորող մարմինները սկսում են մանրակրկիտ ուսումնասիրել արհեստական բանականությունը. օրինակ՝ ԵՄ-ի արհեստական բանականության մասին օրենքը պահանջներ կսահմանի «բարձր ռիսկի» պարունակող արհեստական բանականության համակարգերի համար, և կիբերանվտանգության արհեստական բանականությունը կարող է ընկնել այդ կատեգորիայի մեջ: Ընկերությունները պետք է կողմնորոշվեն այս կանոնակարգերում և հնարավոր է՝ հետևեն NIST արհեստական բանականության ռիսկերի կառավարման շրջանակի նման ստանդարտներին՝ գեներատիվ արհեստական բանականությունը պատասխանատու կերպով օգտագործելու համար ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): Համապատասխանությունը տարածվում է նաև լիցենզավորման վրա. բաց կոդով կամ երրորդ կողմի մոդելների օգտագործումը կարող է ունենալ պայմաններ, որոնք սահմանափակում են որոշակի օգտագործումներ կամ պահանջում են բարելավումների փոխանակում:
Ամփոփելով՝ գեներատիվ արհեստական բանականությունը արծաթե փամփուշտ չէ . եթե այն ուշադիր չկիրառվի, այն կարող է նոր թույլ կողմեր առաջացնել, նույնիսկ երբ լուծում է մյուսները: 2024 թվականի Համաշխարհային տնտեսական ֆորումի ուսումնասիրությունը ընդգծել է, որ կազմակերպությունների մոտ 47%-ը հարձակվողների կողմից գեներատիվ արհեստական բանականության ոլորտում առաջընթացը նշում է որպես առաջնային մտահոգություն, ինչը այն դարձնում է «գեներատիվ արհեստական բանականության ամենամտահոգիչ ազդեցությունը» կիբերանվտանգության մեջ ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Գեներատիվ արհեստական բանականություն կիբերանվտանգության մեջ. Իրավագիտության համապարփակ վերանայում ... ): Հետևաբար, կազմակերպությունները պետք է որդեգրեն հավասարակշռված մոտեցում. օգտվեն արհեստական բանականության առավելություններից՝ միաժամանակ խստորեն կառավարելով այդ ռիսկերը կառավարման, թեստավորման և մարդկային վերահսկողության միջոցով: Հաջորդը մենք կքննարկենք, թե ինչպես գործնականում հասնել այդ հավասարակշռությանը:
Ապագայի հեռանկար. Գեներատիվ արհեստական բանականության զարգացող դերը կիբերանվտանգության մեջ
Առաջ նայելով՝ գեներատիվ արհեստական բանականությունը պատրաստ է դառնալ կիբերանվտանգության ռազմավարության անբաժանելի մասը և, հետևաբար, գործիք, որը կիբերհակառակորդները կշարունակեն շահագործել: Կատու-մկնիկի դինամիկան կարագանա, քանի որ արհեստական բանականությունը կլինի ցանկապատի երկու կողմերում էլ: Ահա որոշ հեռանկարային դիտարկումներ այն մասին, թե ինչպես կարող է գեներատիվ արհեստական բանականությունը ձևավորել կիբերանվտանգությունը առաջիկա տարիներին.
-
Արհեստական բանականությամբ լրացված կիբերպաշտպանությունը դառնում է ստանդարտ. 2025 թվականին և դրանից հետո մենք կարող ենք ակնկալել, որ միջինից մինչև խոշոր կազմակերպությունների մեծ մասը իրենց անվտանգության գործողություններում կներառի արհեստական բանականության վրա հիմնված գործիքներ: Ինչպես այսօր ստանդարտ են հակավիրուսային և firewall-ները, այնպես էլ արհեստական բանականության օժանդակ համակարգերը և անոմալիաների հայտնաբերման համակարգերը կարող են դառնալ անվտանգության ճարտարապետության հիմնական բաղադրիչներ: Այս գործիքները, հավանաբար, ավելի մասնագիտացված կդառնան, օրինակ՝ ամպային անվտանգության, իրերի ինտերնետի սարքերի մոնիթորինգի, կիրառական կոդի անվտանգության և այլնի համար ճշգրտված առանձին արհեստական բանականության մոդելներ, որոնք բոլորը կաշխատեն համատեղ: Ինչպես նշվում է մեկ կանխատեսման մեջ. «2025 թվականին գեներատիվ արհեստական բանականությունը կդառնա կիբերանվտանգության անբաժանելի մասը՝ թույլ տալով կազմակերպություններին կանխարգելիչ կերպով պաշտպանվել բարդ և զարգացող սպառնալիքներից» ( Ինչպես կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ ): Արհեստական բանականությունը կբարելավի իրական ժամանակում սպառնալիքների հայտնաբերումը, կավտոմատացնի բազմաթիվ արձագանքման գործողություններ և կօգնի անվտանգության թիմերին կառավարել տվյալների շատ ավելի մեծ ծավալներ, քան կարող էին ձեռքով:
-
Անընդհատ ուսուցում և հարմարվողականություն. Կիբերտեխնոլոգիայի ոլորտում ապագա գեներատիվ արհեստական բանականության համակարգերը ավելի լավ կսովորեն տեղեկատվությունից ՝ թարմացնելով իրենց գիտելիքների բազան գրեթե իրական ժամանակում: Սա կարող է հանգեցնել իսկապես հարմարվողական պաշտպանության. պատկերացրեք մի արհեստական բանականություն, որը առավոտյան իմանում է մեկ այլ ընկերությանը հարվածող նոր ֆիշինգային արշավի մասին, և կեսօրին արդեն կարգավորել է ձեր ընկերության էլ. փոստի ֆիլտրերը՝ ի պատասխան: Ամպային արհեստական բանականության անվտանգության ծառայությունները կարող են նպաստել այս տեսակի կոլեկտիվ ուսուցմանը, որտեղ մեկ կազմակերպության անանունացված տեղեկատվությունը օգուտ է բերում բոլոր բաժանորդներին (նման է սպառնալիքների մասին տեղեկատվության փոխանակմանը, բայց ավտոմատացված): Այնուամենայնիվ, սա կպահանջի զգույշ վարվելակերպ՝ խուսափելու համար զգայուն տեղեկատվության փոխանակումից և կանխելու համար, որ հարձակվողները վատ տվյալներ մատակարարեն համատեղ մոդելներին:
-
Արհեստական բանականության և կիբերանվտանգության տաղանդի միաձուլումը. Կիբերանվտանգության մասնագետների հմտությունների շարքը կզարգանա՝ ներառելով արհեստական բանականության և տվյալների գիտության հմտություններ: Ճիշտ այնպես, ինչպես այսօրվա վերլուծաբանները սովորում են հարցման լեզուներ և սկրիպտավորում, վաղվա վերլուծաբանները կարող են պարբերաբար կատարելագործել արհեստական բանականության մոդելները կամ գրել «ձեռնարկներ» արհեստական բանականության կողմից կատարման համար: Մենք կարող ենք տեսնել նոր դերեր, ինչպիսիք են «Արհեստական բանականության անվտանգության մարզիչը» կամ «Կիբերանվտանգության արհեստական բանականության ինժեները» . մարդիկ, ովքեր մասնագիտանում են արհեստական բանականության գործիքները կազմակերպության կարիքներին հարմարեցնելու, դրանց արդյունավետությունը ստուգելու և դրանց անվտանգ գործունեությունն ապահովելու գործում: Մյուս կողմից, կիբերանվտանգության նկատառումները գնալով ավելի շատ կազդեն արհեստական բանականության զարգացման վրա: Արհեստական բանականության համակարգերը կկառուցվեն անվտանգության առանձնահատկություններով զրոյից (անվտանգ ճարտարապետություն, կեղծման հայտնաբերում, արհեստական բանականության որոշումների աուդիտի գրանցամատյաններ և այլն), և վստահելի արհեստական բանականության (արդար, բացատրելի, հուսալի և անվտանգ) կուղղորդեն դրանց տեղակայումը անվտանգության կարևորագույն համատեքստերում:
-
Ավելի բարդ արհեստական բանականությամբ հզորացված հարձակումներ. Ցավոք, սպառնալիքների լանդշաֆտը նույնպես կզարգանա արհեստական բանականության հետ մեկտեղ: Մենք կանխատեսում ենք արհեստական բանականության ավելի հաճախակի օգտագործում՝ զրոյական օրվա խոցելիությունները հայտնաբերելու, բարձր թիրախային սպիրալային ֆիշինգ ստեղծելու (օրինակ՝ արհեստական բանականությունը քերծում է սոցիալական ցանցերը՝ կատարյալ հարմարեցված խայծ ստեղծելու համար) և համոզիչ խորը կեղծ ձայներ կամ տեսանյութեր ստեղծելու համար՝ կենսաչափական նույնականացումը շրջանցելու կամ խարդախություն կատարելու համար: Կարող են ի հայտ գալ ավտոմատացված հաքերային գործակալներ, որոնք կարող են ինքնուրույն իրականացնել բազմաստիճան հարձակումներ (հետախուզություն, շահագործում, կողմնային շարժում և այլն)՝ նվազագույն մարդկային հսկողության ներքո: Սա կստիպի պաշտպաններին նույնպես հույսը դնել արհեստական բանականության վրա՝ ըստ էության՝ ավտոմատացման ընդդեմ ավտոմատացման : Որոշ հարձակումներ կարող են տեղի ունենալ մեքենայի արագությամբ, ինչպես արհեստական բանականության բոտերը, որոնք փորձում են հազարավոր ֆիշինգային էլ.փոստի վերադասավորումներ՝ տեսնելու, թե որն է անցնում ֆիլտրերից: Կիբերպաշտպանությունը պետք է գործի նմանատիպ արագությամբ և ճկունությամբ՝ համընթաց քայլելու համար ( Ի՞նչ է գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ - Palo Alto Networks ):
-
Կարգավորում և էթիկական արհեստական բանականություն անվտանգության մեջ. Քանի որ արհեստական բանականությունը խորապես արմատավորվում է կիբերանվտանգության գործառույթներում, ավելի մեծ հսկողություն և հնարավոր է՝ կարգավորում կլինի՝ ապահովելու համար, որ այս արհեստական բանականության համակարգերը պատասխանատու կերպով օգտագործվեն: Մենք կարող ենք ակնկալել անվտանգության ոլորտում արհեստական բանականությանը հատուկ շրջանակներ և ստանդարտներ: Կառավարությունները կարող են սահմանել թափանցիկության ուղեցույցներ, օրինակ՝ պահանջելով, որ կարևոր անվտանգության որոշումները (օրինակ՝ աշխատակցի մուտքի դադարեցումը կասկածելի չարամիտ գործունեության պատճառով) չկայացվեն միայն արհեստական բանականության կողմից՝ առանց մարդկային ստուգման: Կարող են լինել նաև արհեստական բանականության անվտանգության արտադրանքի հավաստագրեր՝ գնորդներին վստահեցնելու համար, որ արհեստական բանականությունը գնահատվել է կողմնակալության, կայունության և անվտանգության համար: Ավելին, միջազգային համագործակցությունը կարող է զարգանալ արհեստական բանականության հետ կապված կիբերսպառնալիքների շուրջ. օրինակ՝ արհեստական բանականության կողմից ստեղծված ապատեղեկատվության կառավարման կամ արհեստական բանականության կողմից ղեկավարվող որոշակի կիբերզենքերի դեմ նորմերի վերաբերյալ համաձայնագրեր:
-
Ինտեգրացիա ավելի լայն արհեստական բանականության և տեղեկատվական տեխնոլոգիաների էկոհամակարգերի հետ. Կիբերանվտանգության ոլորտում գեներատիվ արհեստական բանականությունը, հավանաբար, կինտեգրվի այլ արհեստական բանականության համակարգերի և տեղեկատվական տեխնոլոգիաների կառավարման գործիքների հետ: Օրինակ, ցանցի օպտիմալացումը կառավարող արհեստական բանականությունը կարող է համագործակցել անվտանգության արհեստական բանականության հետ՝ ապահովելու համար, որ փոփոխությունները չբացեն բացթողումներ: Արհեստական բանականության վրա հիմնված բիզնես վերլուծությունները կարող են տվյալներ փոխանակել անվտանգության արհեստական բանականությունների հետ՝ անոմալիաները (օրինակ՝ վաճառքի հանկարծակի անկումը հարձակման պատճառով կայքի հնարավոր խնդրի հետ) համեմատելու համար: Ըստ էության, արհեստական բանականությունը չի ապրի մեկուսացված վիճակում՝ այն կլինի կազմակերպության գործունեության ավելի լայն ինտելեկտուալ հյուսվածքի մաս: Սա հնարավորություններ է բացում ամբողջական ռիսկերի կառավարման համար, որտեղ գործառնական տվյալները, սպառնալիքների տվյալները և նույնիսկ ֆիզիկական անվտանգության տվյալները կարող են համակցվել արհեստական բանականության կողմից՝ կազմակերպության անվտանգության վիճակի 360 աստիճանի պատկերացում տալու համար:
Երկարաժամկետ հեռանկարում հույս կա, որ գեներատիվ արհեստական բանականությունը կօգնի հավասարակշռությունը թեքել պաշտպանների օգտին: Ժամանակակից ՏՏ միջավայրերի մասշտաբներն ու բարդությունը կառավարելով՝ արհեստական բանականությունը կարող է կիբեռտարածությունն ավելի պաշտպանելի դարձնել: Այնուամենայնիվ, դա երկար ճանապարհ է, և մենք դժվարություններ կունենանք, քանի որ կատարելագործում ենք այս տեխնոլոգիաները և սովորում ենք դրանց պատշաճ կերպով վստահել: Այն կազմակերպությունները, որոնք տեղեկացված են մնում և ներդրումներ են կատարում արհեստական բանականության պատասխանատու ներդրման , հավանաբար լավագույն դիրքում կլինեն ապագայի սպառնալիքներին կողմնորոշվելու համար:
Ինչպես նշվեց Gartner-ի կիբերանվտանգության միտումների վերաբերյալ վերջին զեկույցում, «գեներատիվ արհեստական ինտելեկտի օգտագործման դեպքերի (և ռիսկերի) ի հայտ գալը ճնշում է ստեղծում փոխակերպման համար» ( Cybersecurity Trends: Resilience Through Transformation - Gartner ): Նրանք, ովքեր կհարմարվեն, կօգտագործեն արհեստական ինտելեկտը որպես հզոր դաշնակից. նրանք, ովքեր կհետ մնան, կարող են հայտնվել արհեստական ինտելեկտի կողմից լիազորված հակառակորդների ետևում: Հաջորդ մի քանի տարիները վճռորոշ կլինեն այն բանի համար, թե ինչպես է արհեստական ինտելեկտը վերաձևում կիբերմարտադաշտը:
Գործնական եզրակացություններ կիբերանվտանգության մեջ գեներատիվ արհեստական բանականության ներդրման վերաբերյալ
Այն բիզնեսների համար, որոնք գնահատում են, թե ինչպես օգտագործել գեներատիվ արհեստական բանականությունը իրենց կիբերանվտանգության ռազմավարության մեջ, ահա մի քանի գործնական եզրակացություններ և առաջարկություններ ՝ պատասխանատու և արդյունավետ ներդրումը առաջնորդելու համար.
-
Սկսեք կրթությունից և վերապատրաստումից. համոզվեք, որ ձեր անվտանգության թիմը (և ավելի լայն ՏՏ անձնակազմը) հասկանում են, թե ինչ կարող է և ինչ չի կարող անել գեներատիվ արհեստական բանականությունը: Անցկացրեք վերապատրաստում արհեստական բանականության վրա հիմնված անվտանգության գործիքների հիմունքների վերաբերյալ և թարմացրեք ձեր անվտանգության իրազեկման ծրագրերը բոլոր աշխատակիցների համար՝ ներառելով արհեստական բանականության կողմից ապահովված սպառնալիքները: Օրինակ, սովորեցրեք աշխատակիցներին, թե ինչպես կարող է արհեստական բանականությունը ստեղծել շատ համոզիչ ֆիշինգային խարդախություններ և խորը կեղծ զանգեր: Միաժամանակ, վերապատրաստեք աշխատակիցներին իրենց աշխատանքում արհեստական բանականության գործիքների անվտանգ և հաստատված օգտագործման վերաբերյալ: Լավ տեղեկացված օգտատերերը ավելի քիչ հավանականություն ունեն սխալ վարվելու արհեստական բանականության հետ կամ դառնալու արհեստական բանականության կողմից ուժեղացված հարձակումների զոհ ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ):
-
Սահմանեք արհեստական բանականության օգտագործման հստակ քաղաքականություն. վերաբերվեք գեներատիվ արհեստական բանականությանը ինչպես ցանկացած հզոր տեխնոլոգիայի՝ կառավարմամբ։ Մշակեք քաղաքականություններ, որոնք կսահմանեն, թե ով կարող է օգտագործել արհեստական բանականության գործիքներ, որ գործիքներն են թույլատրվում և ինչ նպատակներով։ Ներառեք զգայուն տվյալների մշակման ուղեցույցներ (օրինակ՝ գաղտնի տվյալների արտաքին արհեստական բանականության ծառայություններին չտրամադրելը )՝ արտահոսքերը կանխելու համար։ Օրինակ, դուք կարող եք թույլատրել միայն անվտանգության թիմի անդամներին օգտագործել ներքին արհեստական բանականության օգնական միջադեպերին արձագանքելու համար, իսկ մարքեթինգը կարող է օգտագործել ստուգված արհեստական բանականություն բովանդակության համար՝ մնացած բոլորի համար սահմանափակումներ կան։ Շատ կազմակերպություններ այժմ իրենց ՏՏ քաղաքականություններում բացահայտորեն անդրադառնում են գեներատիվ արհեստական բանականությանը, և առաջատար ստանդարտացման մարմինները խրախուսում են անվտանգ օգտագործման քաղաքականությունը, այլ ոչ թե ուղղակի արգելքները ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ։ 10 իրական աշխարհի օրինակներ )։ Համոզվեք, որ այս կանոնները և դրանց հիմքում ընկած հիմնավորումը փոխանցել եք բոլոր աշխատակիցներին։
-
«Ստվերային արհեստական բանականության» մեղմացում և օգտագործման մոնիթորինգ. ստվերային ՏՏ-ի նման, «ստվերային արհեստական բանականությունը» առաջանում է, երբ աշխատակիցները սկսում են օգտագործել արհեստական բանականության գործիքներ կամ ծառայություններ՝ առանց ՏՏ-ի իմացության (օրինակ՝ մշակողը օգտագործում է արհեստական բանականության չարտոնված կոդի օգնական): Սա կարող է առաջացնել անտեսանելի ռիսկեր: Ձեռնարկեք միջոցներ՝ արհեստական բանականության չարտոնված օգտագործումը հայտնաբերելու և վերահսկելու : Ցանցի մոնիթորինգը կարող է նշել արհեստական բանականության հայտնի API-ների հետ կապերը, իսկ հարցումները կամ գործիքների աուդիտները կարող են բացահայտել, թե ինչ է օգտագործում անձնակազմը: Առաջարկեք հաստատված այլընտրանքներ, որպեսզի բարի մտադրություններով աշխատակիցները չգայթակղվեն խարդախություն գործել (օրինակ՝ տրամադրեք պաշտոնական ChatGPT Enterprise հաշիվ, եթե մարդիկ այն օգտակար համարեն): Արհեստական բանականության օգտագործումը լույսի ներքո ներկայացնելով՝ անվտանգության թիմերը կարող են գնահատել և կառավարել ռիսկը: Մոնիթորինգը նույնպես կարևոր է՝ հնարավորինս շատ գրանցել արհեստական բանականության գործիքների գործունեությունը և արդյունքները, որպեսզի լինի աուդիտի հետք այն որոշումների համար, որոնց վրա ազդել է արհեստական բանականությունը ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ):
-
Օգտագործեք արհեստական բանականությունը պաշտպանողականորեն՝ մի՛ հետ մնացեք. Հաշվի առեք, որ հարձակվողները կօգտագործեն արհեստական բանականությունը, ուստի ձեր պաշտպանությունը նույնպես պետք է օգտագործի այն։ Նույնականացրեք մի քանի բարձր ազդեցության ոլորտներ, որտեղ գեներատիվ արհեստական բանականությունը կարող է անմիջապես օգնել ձեր անվտանգության գործողություններին (գուցե ահազանգերի տեսակավորում կամ ավտոմատացված գրանցամատյանների վերլուծություն) և իրականացրեք փորձնական նախագծեր։ Բարձրացրեք ձեր պաշտպանությունը արհեստական բանականության արագությամբ և մասշտաբով ՝ արագ զարգացող սպառնալիքներին հակազդելու համար ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ։ 10 իրական աշխարհի օրինակ )։ Նույնիսկ պարզ ինտեգրացիաները, ինչպիսիք են արհեստական բանականության օգտագործումը վնասակար ծրագրերի մասին հաղորդագրությունները ամփոփելու կամ սպառնալիքների որոնման հարցումներ ստեղծելու համար, կարող են վերլուծաբաններին ժամեր խնայել։ Սկսեք փոքրից, գնահատեք արդյունքները և կրկնեք։ Հաջողությունները կհիմնավորեն արհեստական բանականության ավելի լայն կիրառման համար։ Նպատակն է օգտագործել արհեստական բանականությունը որպես ուժի բազմապատկիչ՝ օրինակ, եթե ֆիշինգային հարձակումները ծանրաբեռնում են ձեր օգնության ծառայությունը, տեղադրեք արհեստական բանականության էլ. փոստի դասակարգիչ՝ այդ ծավալը կանխարգելիչ կերպով կրճատելու համար։
-
Ներդրումներ կատարեք արհեստական բանականության անվտանգ և էթիկական գործելակերպերի մեջ. Գեներատիվ արհեստական բանականություն ներդնելիս հետևեք անվտանգ մշակման և տեղակայման գործելակերպերին: Օգտագործեք մասնավոր կամ ինքնուրույն հոսթինգավորված մոդելներ զգայուն առաջադրանքների համար՝ տվյալների վրա վերահսկողությունը պահպանելու համար: Եթե օգտագործում եք երրորդ կողմի արհեստական բանականության ծառայություններ, վերանայեք դրանց անվտանգության և գաղտնիության միջոցառումները (կոդավորում, տվյալների պահպանման քաղաքականություն և այլն): Ներառեք արհեստական բանականության ռիսկերի կառավարման շրջանակներ (օրինակ՝ NIST-ի արհեստական բանականության ռիսկերի կառավարման շրջանակը կամ ISO/IEC ուղեցույցը)՝ ձեր արհեստական բանականության գործիքներում կողմնակալության, բացատրելիության և կայունության նման բաների համակարգված լուծման համար ( Ինչպե՞ս կարող է օգտագործվել գեներատիվ արհեստական բանականությունը կիբերանվտանգության մեջ: 10 իրական աշխարհի օրինակ ): Նաև պլանավորեք մոդելի թարմացումներ/թարմացումներ՝ որպես սպասարկման մաս. արհեստական բանականության մոդելները նույնպես կարող են ունենալ «խոցելիություններ» (օրինակ՝ դրանք կարող են վերապատրաստման կարիք ունենալ, եթե սկսեն շեղվել կամ եթե մոդելի վրա հայտնաբերվի նոր տեսակի հակառակորդական հարձակում): Ձեր արհեստական բանականության օգտագործման մեջ անվտանգությունն ու էթիկան ներառելով՝ դուք վստահություն եք ներշնչում արդյունքների նկատմամբ և ապահովում եք համապատասխանությունը զարգացող կանոնակարգերին:
-
Մարդկանց տեղեկացված պահեք. օգտագործեք արհեստական բանականությունը՝ կիբերանվտանգության ոլորտում մարդկային դատողությանը օգնելու, այլ ոչ թե ամբողջությամբ փոխարինելու համար: Որոշեք որոշումների կայացման այն կետերը, որտեղ անհրաժեշտ է մարդկային վավերացում (օրինակ՝ արհեստական բանականությունը կարող է կազմել միջադեպի մասին զեկույց, բայց վերլուծաբանը վերանայում է այն տարածելուց առաջ, կամ արհեստական բանականությունը կարող է առաջարկել օգտատիրոջ հաշիվը արգելափակել, բայց մարդը հաստատում է այդ գործողությունը): Սա ոչ միայն կանխում է արհեստական բանականության սխալների անվերահսկելի մնալը, այլև օգնում է ձեր թիմին սովորել արհեստական բանականությունից և հակառակը: Խրախուսեք համագործակցային աշխատանքային հոսքը. վերլուծաբանները պետք է իրենց հարմարավետ զգան հարցականի տակ դնելու արհեստական բանականության արդյունքները և կատարելու առողջ բանականության ստուգումներ: Ժամանակի ընթացքում այս երկխոսությունը կարող է բարելավել ինչպես արհեստական բանականությունը (հետադարձ կապի միջոցով), այնպես էլ վերլուծաբանների հմտությունները: Ըստ էության, նախագծեք ձեր գործընթացները այնպես, որ արհեստական բանականությունը և մարդկային ուժեղ կողմերը լրացնում են միմյանց. արհեստական բանականությունը կարգավորում է ծավալը և արագությունը, մարդիկ՝ անորոշությունը և վերջնական որոշումները:
-
Չափեք, վերահսկեք և կարգավորեք. Վերջապես, ձեր գեներատիվ արհեստական բանականության գործիքները վերաբերվեք որպես ձեր անվտանգության էկոհամակարգի կենդանի բաղադրիչների: Անընդհատ չափեք դրանց արդյունավետությունը . արդյո՞ք դրանք կրճատում են միջադեպերին արձագանքման ժամանակը: Արդյո՞ք սպառնալիքները ավելի շուտ են բռնում: Ինչպե՞ս է կեղծ դրական արդյունքների ցուցանիշը միտում ունենում: Հարցրեք թիմից արձագանք. արդյո՞ք արհեստական բանականության առաջարկությունները օգտակար են, թե՞ աղմուկ են ստեղծում: Օգտագործեք այս չափանիշները՝ մոդելները կատարելագործելու, վերապատրաստման տվյալները թարմացնելու կամ արհեստական բանականության ինտեգրման եղանակը ճշգրտելու համար: Կիբերսպառնալիքներն ու բիզնեսի կարիքները զարգանում են, և ձեր արհեստական բանականության մոդելները պետք է պարբերաբար թարմացվեն կամ վերապատրաստվեն՝ արդյունավետ մնալու համար: Ունեցեք մոդելի կառավարման ծրագիր, ներառյալ՝ ով է պատասխանատու դրա պահպանման համար և որքան հաճախ է այն վերանայվում: ԱԻ-ի կյանքի ցիկլը ակտիվորեն կառավարելով՝ դուք ապահովում եք, որ այն մնա ակտիվ, այլ ոչ թե պարտավորություն:
Ամփոփելով՝ գեներատիվ արհեստական բանականությունը կարող է զգալիորեն բարելավել կիբերանվտանգության հնարավորությունները, սակայն հաջող ներդրումը պահանջում է մտածված պլանավորում և շարունակական վերահսկողություն: Այն բիզնեսները, որոնք կրթում են իրենց աշխատակիցներին, սահմանում հստակ ուղեցույցներ և ինտեգրում արհեստական բանականությունը հավասարակշռված, անվտանգ եղանակով, կվայելեն սպառնալիքների ավելի արագ և խելացի կառավարման պտուղները: Այս եզրակացությունները տալիս են ճանապարհային քարտեզ՝ համատեղել մարդկային փորձը արհեստական բանականության ավտոմատացման հետ, ներառել կառավարման հիմունքները և պահպանել ճկունությունը, քանի որ և՛ արհեստական բանականության տեխնոլոգիան, և՛ սպառնալիքների լանդշաֆտը անխուսափելիորեն զարգանում են:
«Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ» հարցին ՝ ոչ միայն տեսականորեն, այլև առօրյա պրակտիկայում, և այդպիսով ամրապնդել իրենց պաշտպանությունը մեր ավելի ու ավելի թվային և արհեստական բանականությամբ առաջնորդվող աշխարհում։ ( Ինչպե՞ս կարող է գեներատիվ արհեստական բանականությունը օգտագործվել կիբերանվտանգության մեջ )
Սպիտակ թղթեր, որոնք կարող եք կարդալ սրանից հետո.
🔗 Աշխատանքներ, որոնք արհեստական բանականությունը չի կարող փոխարինել, և որ աշխատատեղերը կփոխարինի արհեստական բանականությունը:
Ուսումնասիրեք համաշխարհային տեսակետը այն մասին, թե որ դերերն են անվտանգ ավտոմատացումից, և որոնք՝ ոչ:
🔗 Կարո՞ղ է արհեստական բանականությունը կանխատեսել ֆոնդային շուկան։
Ավելի մանրամասն քննարկենք արհեստական բանականության կողմից շուկայի տատանումները կանխատեսելու կարողության շուրջ առկա սահմանափակումները, առաջընթացները և առասպելները։
🔗 Ի՞նչի վրա կարելի է հույսը դնել գեներատիվ արհեստական բանականության վրա՝ առանց մարդկային միջամտության։
Հասկացեք, թե որտեղ կարող է արհեստական բանականությունը գործել անկախ, և որտեղ մարդկային վերահսկողությունը դեռևս կարևոր է։