🦞 OpenClaw-ի հիմնադիր Ստեյնբերգերը միանում է OpenAI-ին, բաց կոդով ռոբոտը դառնում է հիմնադրամ ↗
Պիտեր Սթեյնբերգերը գնում է OpenAI՝ «անձնական գործակալներին» առաջ մղելու համար, մինչդեռ OpenClaw-ն ինքը կայանված է հիմնադրամում, որպեսզի մնա բաց կոդով (և աջակցվի): Այդ բաժանումը… մի փոքր խելացի է՝ վարձեք կառուցողին, թողեք նախագիծը հանրային:.
OpenClaw-ի առաջարկը թարմացնող գործնական է. էլեկտրոնային փոստի տեսակավորում, ապահովագրական փաստաթղթեր, թռիչքների գրանցում, կյանքի հետ կապված տանջալից կառավարչական աշխատանքներ: Այն նաև չափազանց տարածված է GitHub-ում, և այդ ժողովրդականությունը անվտանգության հետ կապված մտահոգություններ է առաջացրել, հատկապես, եթե մարդիկ այն անզգուշորեն են օգտագործում:.
🪖 Պենտագոնը «հոգնել» է Կլոդի արհեստական բանականության մոդելի ռազմական օգտագործման վերաբերյալ մարդաբանական արձագանքից և կարող է խզել կապերը, ասվում է զեկույցում։ ↗
Հիմնական պայքարը. Պենտագոնը ցանկանում է լայն, «բոլոր օրինական նպատակներով» հասանելիություն, իսկ Anthropic-ը դեռ փորձում է խստորեն սահմանափակել լիովին ինքնավար զենքի և զանգվածային հսկողության հարցը: Սա այնպիսի անհամաձայնություն է, որը փիլիսոփայական է հնչում մինչև ինչ-որ մեկը չասի. «Մենք կարող ենք փոխարինել ձեզ»:
Մեկ թերագնահատված թերություն. պաշտոնյաները չեն ցանկանում, որ մոդելը հանկարծակի խափանի աշխատանքային հոսքերը կեսից, և նրանք չեն ցանկանում անվերջ բանակցել ծայրահեղ դեպքերի շուրջ (արդար է… բայց նաև վա՜յ): Այստեղ կա իրական «ո՞վ է բանալիները պահում» լարվածություն, և դա աննկատելի չէ:.
🧠 Մարդկային վարքագիծը կանխատեսող ստարտափի մոդել ↗
Սիմիլը 100 միլիոն դոլարի ներդրում կատարեց՝ «սահմանափակ ուսուցման» մոդել կառուցելու համար, որը նպատակ ուներ կանխատեսել, թե ինչ կարող են անել մարդիկ, այդ թվում՝ շատ կոնկրետ, կանխատեսել հավանական հարցեր, ինչպիսիք են եկամտի վերաբերյալ զանգերը: Նեղ նպատակ, մեծ հավակնություն, մի փոքր տարօրինակ համադրություն:.
Մոտեցումը հիմնված է իրական մարդկանց հետ հարցազրույցների և վարքագծային հետազոտությունների տվյալների վրա, այնուհետև սիմուլյացիաներ է անցկացնում արհեստական բանականության գործակալների հետ, որոնք նախատեսված են իրական նախասիրությունները արտացոլելու համար: Դա նման է մարդկային որոշումների համար եղանակի մոդել ստեղծելուն… ինչը անհնար է թվում մինչև այն չանհայտանա:.
🧑⚖️ Սպիտակ տունը ճնշում է գործադրում Յուտայի օրենսդիր մարմնի վրա՝ արհեստական բանականության թափանցիկության օրինագիծը չեղարկելու համար ↗
Յուտայում արհեստական բանականության թափանցիկության վերաբերյալ նահանգային մակարդակով իրականացվող ջանքերը Սպիտակ տան ուղղակի քննադատության են արժանանում, պաշտոնյաները կոչ են անում օրինագծի հեղինակին չառաջարկել այն: Օրինագծի ձևակերպումը վերաբերում է թափանցիկությանը և երեխաների անվտանգությանը, ինչի հետ դժվար է վիճել մաքուր տեսողական տեսանկյունից:.
Բայց ավելի մեծ պայքարը իրավասությունների միջև է. ո՞վ է կանոնները սահմանում՝ նահանգները, թե՞ դաշնային կառավարությունը։ Եվ այո, դա մռթմռթոց է՝ ինչպես երկու մարդ, որոնք բռնում են նույն ղեկը և պնդում, որ իրենք են հանգիստը։.
🎬 ByteDance-ը խոստանում է կանխել արհեստական ինտելեկտի տեսանյութերի վրա IP-ի չարտոնված օգտագործումը Disney-ի սպառնալիքից հետո ↗
Disney-ը դադարեցրեց ByteDance-ի արհեստական ինտելեկտի տեսանյութերի գեներատորի աշխատանքը, և ByteDance-ը հայտարարում է, որ ուժեղացնում է պաշտպանությունը՝ մտավոր սեփականության և նմանության չարտոնված օգտագործումը կանխելու համար: Բողոքը, ենթադրաբար, այն է, որ գործիքը կարող է ծանոթ ֆրանշիզային կերպարներին ցուցադրել այնպես, կարծես նրանք պարզապես… հանրային սեփականության ստիկերներ լինեն:.
Սա այն բախումն է, որը բոլորը կանխատեսում էին. վիրուսային արհեստական ինտելեկտի տեսանյութերի գործիքները արագ զարգանում են, ստուդիաները՝ դատական գործընթացների, իսկ «մենք կավելացնենք պաշտպանիչ միջոցներ» արտահայտությունը դառնում է ներողության լռելյայն լեզու։ Մի կողմից, տեխնոլոգիան կախարդանքի է նման, իսկ իրավական կողմը՝ լրջության։.
Հաճախակի տրվող հարցեր
Ի՞նչ է նշանակում, որ OpenClaw-ի հիմնադիրը միացել է OpenAI-ին, մինչդեռ OpenClaw-ը տեղափոխվել է հիմնադրամ։
Սա ազդարարում է «անձնական գործակալներ» կառուցող անձի և նախագծի հանրային կառավարման մեջ մնալու միջև պառակտման մասին: Սթեյնբերգերը միանալով OpenAI-ին, ենթադրում է, որ նա կկենտրոնանա այնտեղ գործակալական ոճի արտադրանքի զարգացման վրա: OpenClaw-ը հիմնադրամում տեղադրելը նախատեսված է այն բաց կոդով պահելու և կայուն աջակցություն ցուցաբերելու համար: Գործնականում, այս քայլը նպատակ ունի պահպանել համայնքի վստահությունը, մինչդեռ կառուցողը գնում է այնտեղ, որտեղ ռեսուրսներն են:.
Ինչո՞ւ են OpenClaw-ի ոճի արհեստական ինտելեկտի գործակալները կենտրոնացած էլեկտրոնային փոստի և թղթաբանության նման գործերի վրա։
Քանի որ «կյանքի ադմինիստրատիվ» աշխատանքը կրկնվող է, կանոնների վրա հիմնված և ժամանակատար, ինչը այն դարձնում է ավտոմատացման գործնական թիրախ: Այստեղ բերված օրինակները՝ էլեկտրոնային փոստի տեսակավորումը, ապահովագրական փաստաթղթերը և թռիչքների գրանցումը, նեղ առաջադրանքներ են՝ հստակ հաջողության չափանիշներով: Այդ կենտրոնացումը կարող է գործակալներին ավելի շուտ արժեքավոր զգալ, քան ավելի ազատ աշխատանքային գրաֆիկ ունեցող օգնականներին: Այն նաև ընդգծում է, թե ինչու է կարևոր մուտքի զգույշ վերահսկողությունը, երբ գործակալները դիպչում են անձնական հաշիվներին:.
Ինչպե՞ս կարող եք տեղակայել OpenClaw-ի նման բաց կոդով արհեստական բանականության գործակալ՝ առանց անվտանգության խնդիրներ ստեղծելու։
Վերաբերվեք դրան որպես զգայուն տվյալներ տեսնող ծրագրային ապահովման, այլ ոչ թե խաղալիք սկրիպտի: Հաճախակի մոտեցում է մուտքագրման տվյալների արգելափակումը, թույլտվությունների սահմանափակումը պահանջվող նվազագույնի և գրանցամատյանների ու աուդիտի հետքերի պահպանումը: Գործարկեք այն սահմանափակ միջավայրում և առանձնացրեք այն բարձր արժեք ունեցող համակարգերից: Անվտանգության հետ կապված բազմաթիվ մտահոգություններ բխում են անզգույշ տեղակայումից, հատկապես, երբ մարդիկ բացահայտում են վերջնակետեր կամ տոկեններ առանց ուժեղ պաշտպանության միջոցների:.
Ինչո՞ւ է Պենտագոնը դժգոհ Anthropic-ի կողմից Claude-ի ռազմական օգտագործման վրա դրված սահմանափակումներից։
Վեճը կենտրոնացած է շրջանակի և վերահսկողության վրա. Պենտագոնը ցանկանում է լայն «բոլոր օրինական նպատակներով» մուտք, մինչդեռ Anthropic-ը նկարագրվում է որպես լիովին ինքնավար զենքերի և զանգվածային հսկողության խիստ սահմանափակումներ պահպանող: Պաշտոնյաները նաև չեն ցանկանում, որ մոդելները խոչընդոտեն աշխատանքային հոսքերի կեսին կամ պահանջեն անվերջանալի բանակցություններ: Այդ լարվածությունն ավելի քիչ վերացական է, քան թվում է. խոսքը վերաբերում է նրան, թե ով է որոշում, թե ինչ կարող է անել մոդելը իրական գործողություններում:.
Ինչպե՞ս են ստարտափները փորձում կանխատեսել մարդկային վարքագիծը արհեստական բանականության միջոցով, և ինչո՞ւ է դա հակասական թվում։
Այստեղ բերված օրինակը՝ Սիմիլը, կիրառում է «սահմանափակ ուսուցման» մոդել, որը նպատակ ունի կանխատեսել, թե ինչ կարող են անել մարդիկ, ներառյալ հավանական հարցերի կանխատեսումը այնպիսի համատեքստերում, ինչպիսիք են եկամուտների վերաբերյալ զանգերը: Նկարագրված մոտեցումը համատեղում է հարցազրույցները վարքագծային հետազոտությունների տվյալների և արհեստական բանականության գործակալների միջոցով սիմուլյացիաների հետ, որոնք նախատեսված են իրական նախասիրությունները արտացոլելու համար: Սա տարօրինակ է թվում, քանի որ այն արհեստական բանականությունը տեղափոխում է մարդկանց արձագանքելուց դեպի նրանց կանխատեսումը: Խնդիրը պնդումները սահմանափակ պահելն ու չափազանց վստահությունից խուսափելն է:.
Ի՞նչ է պատահում, երբ արհեստական բանականության տեսագործիքները ստեղծում են հեղինակային իրավունքով պաշտպանված կերպարներ, ինչպես ByteDance-Disney բախման դեպքում։
Հաղորդված օրինաչափությունը ծանոթ է. ստուդիան դադարեցնում է գործողությունները, և հարթակը արձագանքում է՝ ուժեղացնելով պաշտպանության միջոցները՝ կանխելու IP կամ նմանության չարտոնված օգտագործումը: Շատ գործիքներում պաշտպանության միջոցները նշանակում են բովանդակության ավելի խիստ ֆիլտրեր, ճանաչելի կերպարների հայտնաբերման բարելավում և օգտատիրոջ քաղաքականության ավելի հստակ կիրառում: Հիմնական հակամարտությունը արագությունն ու պատասխանատվությունն են. վիրուսների ստեղծումը արագ է ընթանում, իսկ իրավունքների պաշտպանությունը գործում է ձգողականության ուժի պես: Ակնկալեք նման բախումների ավելի շատ դեպքեր, քանի որ տեսանյութերի գեներատորները տարածվում են:.